Icon Newsletter

Buzzwords:
Convierte el ruido tecnológico en conocimiento accionable.

Aquí puedes leer la edición 7

ūüźą‚Ä您õ ¬ŅQui√©n le pone el cascabel a la IA? ¬ŅPor qu√© gusta tanto la regulaci√≥n?

La Inteligencia Artificial (IA) ha experimentado un r√°pido crecimiento que ha generado una enorme preocupaci√≥n sobre su regulaci√≥n y seguridad. La moratoria propuesta por expertos en IA, incluido el due√Īo de Tesla y Twitter, Elon Musk, sugiere limitar temporalmente el desarrollo de nuevas tecnolog√≠as de Inteligencia Artificial. Sin embargo, poner restricciones a la investigaci√≥n y el desarrollo en este campo es como ¬ęponer puertas al campo¬Ľ. Determinar qu√© aspectos espec√≠ficos de la IA se limitar√≠an, qu√© empresas se ver√≠an afectadas y en qu√© pa√≠ses se aplicar√≠a la moratoria son cuestiones que podr√≠an complicar su implementaci√≥n.

¬ŅPor qu√© asusta tanto un futuro en el que la Inteligencia Artificial tenga poderes desbocados? Vamos a tratar de poner esta compleja materia en contexto en un campo que avanza d√≠a a d√≠a a un ritmo vertiginoso.

1.- Menos privacidad: La IA puede afectar a nuestra privacidad futura mediante el desarrollo de tecnolog√≠as de reconocimiento facial en espacios p√ļblicos. Aunque estas tecnolog√≠as pueden ayudar a identificar a delincuentes y mejorar la seguridad, tambi√©n pueden invadir o anular la privacidad de las personas al recopilar y almacenar datos sobre sus movimientos y actividades sin su consentimiento. Adem√°s, el uso indebido de estos datos por parte de gobiernos o empresas podr√≠a concluir en la vigilancia masiva de los ciudadanos y en una violaci√≥n de derechos fundamentales. Una aut√©ntica distop√≠a orwelliana.

2.- Discriminaci√≥n por sesgo: Imaginemos que la contrataci√≥n de personal se implemente en base a algoritmos. Si un algoritmo se entrena con datos hist√≥ricos que reflejan sesgos raciales o de g√©nero, podr√≠a perpetuar estos sesgos al recomendar candidatos para los puestos de trabajo. Por ejemplo, si el algoritmo aprende que los empleados hombres han tenido un mejor desempe√Īo en ciertos roles, podr√≠a favorecer a candidatos masculinos en el futuro, discriminando a las mujeres que solicitan el mismo puesto.

3.- Un mayor riesgo para la seguridad: Un ejemplo relacionado con la seguridad es el uso de la IA en ciberataques. Los hackers pueden utilizar algoritmos de IA para generar ataques de phishing m√°s sofisticados, dise√Īando correos electr√≥nicos y sitios web fraudulentos que enga√Īan a las personas para que revelen sus datos personales y contrase√Īas. Adem√°s, la IA tambi√©n podr√≠a utilizarse para identificar y explotar vulnerabilidades en sistemas de seguridad y redes, lo que podr√≠a poner en riesgo la informaci√≥n confidencial y la infraestructura cr√≠tica.

4.- Desplazamiento laboral: La IA ya est√° haciendo posible la automatizaci√≥n de empleos en la industria manufacturera. La implementaci√≥n de robots y sistemas de IA capaces de realizar tareas repetitivas y rutinarias con mayor precisi√≥n y velocidad que los humanos ha llevado a la p√©rdida de empleos para los trabajadores en f√°bricas. Eso es ya ocurre en el presente. Aunque como sostengo en el libro ‚Äú¬ŅQu√© robot se ha llevado mi queso?‚ÄĚ la historia ha demostrado siempre que la tecnolog√≠a no elimina puestos de trabajo pues, aunque algunas profesiones se vuelven obsoletas, aparecen otras nuevas.

Pero a medida que la IA contin√ļa avanzando, es probable que tambi√©n afecte a otros sectores, como el transporte, la atenci√≥n al cliente y la medicina, lo que podr√≠a aumentar el desempleo y la desigualdad econ√≥mica.

5.- Responsabilidad y transparencia en la toma de decisiones: ¬ŅY si los algoritmos son los que toman decisiones m√©dicas? Si un sistema de IA recomienda un tratamiento inadecuado para un paciente, podr√≠a ser dif√≠cil determinar qui√©n es responsable √ļltimo del error: ¬Ņel m√©dico que sigui√≥ la recomendaci√≥n del algoritmo? ¬Ņlos desarrolladores del sistema de IA? ¬Ņlos proveedores de datos utilizados para entrenar el algoritmo? Adem√°s, la falta de transparencia en el funcionamiento de los algoritmos de IA puede dificultar la comprensi√≥n y la explicaci√≥n de por qu√© se tomaron ciertas decisiones, lo que podr√≠a socavar la confianza en la tecnolog√≠a y la rendici√≥n de cuentas.

¬ęM√°s pa√≠ses aprueban leyes relacionadas con la IA¬Ľ

La batalla de las visiones regulatorias de IA: ¬ŅQui√©n ser√° el campe√≥n mundial?

Imagina un viaje alrededor del mundo explorando c√≥mo diferentes pa√≠ses est√°n regulando la inteligencia artificial (IA). ¬°Suena emocionante, ¬Ņno?! Empezamos en Europa, donde el AI Act est√° en proceso y se espera que en 2025 exista un sistema regulatorio en todo el Espacio Econ√≥mico Europeo (y quiz√°s Suiza). 
EE. UU. se centra en est√°ndares voluntarios y ciberseguridad, China busca liderar y regular la IA mediante experimentaci√≥n y regulaci√≥n en √°reas sensibles, Jap√≥n conf√≠a en la colaboraci√≥n para desarrollar la ¬ęsociedad 5.0¬Ľ, Canad√° lidera en regulaci√≥n del sector p√ļblico y eval√ļa normas para el sector privado. M√©xico, Australia, Singapur e India observan las iniciativas globales y adaptan sus normas actuales. La regulaci√≥n de la IA var√≠a desde est√°ndares voluntarios hasta ambiciosos planes de liderazgo.

¬ęAumenta el presupuesto federal de EE.UU. para IA¬Ľ

En el mundo de la regulación de la inteligencia artificial (IA), hay dos partidos en juego, ¡y la tensión es alta!

La UE busca normas aplicables a todos en su territorio, mientras que EE. UU. y China evitan regulaciones detalladas, esperando que sus est√°ndares voluntarios se conviertan en referencia. 

El tiempo juega en contra de Europa, con EE. UU. publicando est√°ndares pronto y la UE tardando al menos dos a√Īos en tener legislaci√≥n aplicable, lo que podr√≠a dejar sus normas obsoletas al entrar en vigor.

¬ŅQu√© podemos hacer?

Desde una perspectiva pro consumidor y mercado, creo que grandes regulaciones pueden no ser la mejor solución para abordar las preocupaciones que surgen con la inteligencia artificial. En lugar de imponer prohibiciones y restricciones estrictas, se deberían considerar otras alternativas. Me atrevo a sugerir algunas…

Fomentar la autorregulaci√≥n e incentivar a las empresas y organizaciones a desarrollar y adoptar sus propias pautas √©ticas y de responsabilidad en la investigaci√≥n y el uso de IA. Establecer est√°ndares y pr√°cticas voluntarias para la industria de la IA. Promover la transparencia y la colaboraci√≥n para compartir informaci√≥n sobre los avances y enfoques en IA. Esto permitir√≠a a los interesados aprender unos de otros y desarrollar soluciones conjuntas a los problemas que enfrenta el campo. Y, por √ļltimo, invertir en educaci√≥n y concienciaci√≥n. Asegurar que la sociedad en general est√© informada sobre los desaf√≠os y oportunidades que presenta la IA, lo que permitir√≠a un debate m√°s informado y equilibrado sobre c√≥mo abordar las preocupaciones relacionadas con la tecnolog√≠a.

¬ŅY a mi esto que me aporta?

Algunas pinceladas:

  • En el terreno del marketing y comunicaci√≥n, la regulaci√≥n y autorregulaci√≥n de la inteligencia artificial puede aportar un marco normativo que garantice la transparencia, la privacidad y la √©tica en el uso de estas tecnolog√≠as. Por ejemplo, al regular el uso de algoritmos de IA en la segmentaci√≥n de audiencias y publicidad, se pueden prevenir pr√°cticas invasivas o discriminatorias, como la exclusi√≥n injusta de ciertos grupos demogr√°ficos. Al establecer l√≠mites y responsabilidades, fomentamos un entorno en el que las campa√Īas de marketing y comunicaci√≥n sean m√°s responsables, justas y efectivas.
  • En el terreno de los negocios y el emprendimiento, la regulaci√≥n y autorregulaci√≥n puede proporciona un marco que promueve la responsabilidad, la equidad y la transparencia en la adopci√≥n y uso de tecnolog√≠as de IA. Al establecer pautas y responsabilidades en la implementaci√≥n de IA, la regulaci√≥n protege a las empresas y a los empleados, asegura la confianza de los consumidores y promueve un ecosistema empresarial √©tico y sostenible en el que las empresas puedan innovar y crecer de manera responsable.
  • En el terreno personal, la regulaci√≥n y autorregulaci√≥n de sectores puede aportar protecci√≥n y seguridad a los individuos en su interacci√≥n con tecnolog√≠as de IA en la vida cotidiana. Un ejemplo concreto es la protecci√≥n de la privacidad y los datos personales en las redes sociales y aplicaciones de mensajer√≠a, donde la regulaci√≥n de algoritmos de IA ayuda a evitar la manipulaci√≥n indebida de informaci√≥n, el uso no autorizado de datos y la difusi√≥n de informaci√≥n falsa. Al proporcionar un marco regulatorio para la IA, se garantiza el respeto de los derechos y libertades individuales y se fomenta el uso responsable y √©tico de las tecnolog√≠as de IA en nuestra vida diaria.

Lecturas complementarias, seleccionadas y resumidas para ti:

  • El art√≠culo de Nature de Ehsan Nabavi aborda el uso de la inteligencia artificial (IA) en la lucha contra la corrupci√≥n, destacando c√≥mo la IA puede detectar y prevenir actividades corruptas mediante el an√°lisis de datos. Por contra tambi√©n subraya la importancia de enfrentar desaf√≠os √©ticos y legales, como privacidad y la transparencia, para garantizar un uso responsable y eficaz de estas tecnolog√≠as.
  • Joana J. Bryson, en Wired, escribi√≥ hace un a√Īo el art√≠culo ‚ÄúEurope Is in Danger of Using the Wrong Definition of AI‚ÄĚ. Bryson cuestiona el enfoque regulatorio de la UE para la IA, argumentando que clasificar aplicaciones seg√ļn el riesgo y las regulaciones espec√≠ficas podr√≠an obstaculizar la innovaci√≥n. Sugiere adaptar leyes existentes y fomentar la colaboraci√≥n internacional en lugar de imponer regulaciones r√≠gidas y burocr√°ticas.
  • En HBR, Reid Blackman, destaca la importancia de establecer comit√©s de √©tica en IA en las organizaciones para abordar riesgos √©ticos, legales y de reputaci√≥n. Estos comit√©s promueven la adhesi√≥n a principios √©ticos y fomentan la responsabilidad y confianza, asegurando un uso responsable y sostenible de la IA en los negocios.
  • Melissa Heikkil√§, Senior Reporter en MIT Technology Review, aborda los desaf√≠os de los √©ticos de IA y ofrece consejos para superarlos, como colaborar con equipos multidisciplinarios y comunicarse eficazmente. Estas estrategias pueden ayudar a garantizar un desarrollo y uso responsable de la IA en las organizaciones.
  • Uno de los medios en espa√Īol con m√°s tr√°fico, Infobae, analiza si la IA puede desarrollar √©tica, abordando desaf√≠os como ense√Īar valores humanos y evitar sesgos. Aunque se mencionan enfoques como comit√©s de √©tica y transparencia, para el autor a√ļn queda mucho por hacer para lograr que la IA sea verdaderamente √©tica y alineada con los valores humanos.

Libros complementarios: seleccionados para ti:

  • AI Ethics de Mark Coeckelbergh. Este libro del fil√≥sofo belga ofrece una introducci√≥n accesible y completa a las cuestiones √©ticas relacionadas con la inteligencia artificial. Coeckelbergh examina temas como la responsabilidad, la privacidad, la justicia y la gobernanza en el contexto de la IA, ofreciendo un enfoque pr√°ctico y filos√≥fico sobre c√≥mo abordar estos problemas.
  • Human Compatible: Artificial Intelligence and the Problem of Control de Stuart Russell. Este inform√°tico y profesor de Berkeley analiza los riesgos potenciales que presenta la inteligencia artificial si no se abordan adecuadamente las cuestiones √©ticas. Russell propone un nuevo enfoque para dise√Īar sistemas de IA que sean compatibles con los valores humanos y garantizar que las m√°quinas sigan siendo beneficiosas para la humanidad en el futuro.