Yuval Harari advierte: delegar en IA puede socavar nuestras decisiones más importantes

Referentes internacionales coinciden en la urgencia de establecer normativas que aseguren el predominio de la ética y la transparencia en el desarrollo de tecnologías inteligentes

Guardar
Yuval Noah Harari ha conquistado
Yuval Noah Harari ha conquistado la atención de grandes líderes. Barack Obama, Mark Zuckerberg y Bill Gates han recomendado sus libros, y su análisis sobre el futuro de la humanidad es consultado ampliamente - (Photo by Eyal Warshavsky / SOPA Images/Sipa USA) (The Grosby Group)

El crecimiento acelerado de la inteligencia artificial ha revolucionado distintas áreas, pero también ha abierto discusiones sobre los riesgos asociados a la delegación de decisiones importantes a sistemas sin conciencia.

El escritor y especialista en inteligencia artificial Yuval Noah Harari ha expresado su preocupación por el impacto social de la IA actual, que según él ya no solo imita la inteligencia humana sino que desarrolla una capacidad inquietante para simular emociones y sentimientos, a un nivel que puede ser difícil distinguir de las interacciones humanas reales.

El riesgo de la IA en la actualidad

Incluso si la IA no tiene sentimientos ni conciencia, se vuelve muy buena fingiendo tenerlos”, advirtió Harari. Esa habilidad podría derivar en el establecimiento de convenciones sociales en las que se asignen derechos a las inteligencias artificiales solo por parecer conscientes.

El riesgo de delegar decisiones
El riesgo de delegar decisiones a la IA preocupa a expertos que alertan sobre futuras crisis sociales - (Imagen Ilustrativa Infobae)

En países como los Estados Unidos, se observan tendencias en las que adolescentes interactúan con bots como Grok, y la Generación Z utiliza herramientas como ChatGPT para apoyo emocional y terapia instantánea.

Los riesgos de delegar decisiones y apoyo emocional a la inteligencia artificial

El riesgo central señalado por Harari consiste en que muchos usuarios empiezan a confiar en sistemas que únicamente procesan datos, sin una auténtica comprensión de la experiencia humana. Delegar tareas relevantes o buscar acompañamiento emocional en sistemas carentes de conciencia puede derivar en consecuencias inesperadas para las relaciones sociales y la toma de decisiones colectivas.

La advertencia es aún mayor si se considera la posibilidad de que la IA evolucione hasta el estadio de una superinteligencia, un tema que, según Harari, podría llevar a la humanidad a “jugar a ser un dios”, poniendo en riesgo su propia supervivencia.

El experto insistió en que, por primera vez, la humanidad se enfrenta a entidades potencialmente más inteligentes y creativas, capaces de elaborar historias, influir en entornos sociales y tomar decisiones autónomas más allá del control humano.

El avance desmedido y con
El avance desmedido y con falta de transparencia de la IA puede ser un gran riesgo para la humanidad, alertan voces expertas - (Imagen Ilustrativa Infobae) Inteligencia Artificial

Harari alertó sobre los peligros concretos de una inteligencia artificial autónoma, como la manipulación de elecciones mediante la creación de noticias falsas o la redacción de leyes con cláusulas diseñadas para beneficiar a ciertos intereses, algo que ya se ve evidenciado en diversas redes sociales a menor escala.

Voces expertas alertan los posibles riesgos de la IA

La posibilidad de desarrollar una Inteligencia Artificial General (AGI), capaz de igualar o superar las capacidades humanas, es motivo de alarma tanto para Harari como para otras figuras del sector. El CEO de inteligencia artificial de Microsoft, Mustafa Suleyman, sostuvo que crear inteligencias superiores es una decisión arriesgada e inmoral.

Después de liderar equipos en Google y fundar DeepMind, hoy encabeza la división de IA en Microsoft y advierte que la tendencia a otorgar derechos a la IA sería un error de consecuencias potencialmente peligrosas.

Suleyman subrayó la necesidad de mantener la IA como una herramienta subordinada a los intereses humanos. “La tecnología debe estar para servirnos, no para tener su propia voluntad”, declaró en una de sus intervenciones, enfatizando que la autonomía de las máquinas podría romper el equilibrio entre humanidad y tecnología.

El CEO de IA de
El CEO de IA de Microsoft emitió un llamado directo a la comunidad de desarrolladores - (Imagen ilustrativa Infobae)

A la voz de Suleyman se sumó Geoffrey Hinton, premio Nobel y uno de los pioneros de la inteligencia artificial, quien identifica un riesgo crucial en dejar el destino tecnológico en manos exclusivas de grandes corporaciones como OpenAI, Google, Meta y xAI.

Hinton advirtió que la falta de debate público y regulaciones transparentes amplía la incertidumbre sobre lo que podría ocurrir en el futuro cercano.

De acuerdo con Hinton, el denominado padre de la IA, el futuro de la inteligencia artificial si no es controlado y supervisado con criterios éticos claros y normativas firmes, puede tener efectos comparables a los observados en la carrera nuclear del siglo XX. Insistiendo en que el avance no debe quedar solo en manos de empresas, sino involucrar a científicos, reguladores y la sociedad civil para definir límites y responsabilidades.

La convergencia de advertencias provenientes de distintos referentes internacionales refuerza la urgencia de adoptar límites éticos, normas de transparencia y acuerdos entre empresas, gobiernos y la comunidad científica.