
La inteligencia artificial evolucionó rápidamente, pasando de ser una idea futurista a formar parte de la vida cotidiana de millones de personas en todo el mundo. Esta transformación plantea riesgos considerables, según advierte el historiador y filósofo Yuval Noah Harari.
En una reciente intervención retomada por National Geographic, Harari alertó sobre el peligro de que la IA alcance un nivel de realismo tan convincente al simular sentimientos, que la sociedad termine por atribuirle conciencia y, eventualmente, derechos similares a los de los seres humanos.
Esta advertencia resulta particularmente relevante en una época en la que herramientas como ChatGPT, desarrollada por OpenAI, se popularizaron globalmente y comenzaron a modificar la forma en que las personas interactúan con la tecnología.
En los últimos dos años, el auge de la inteligencia artificial se aceleró gracias al desarrollo de sistemas avanzados como el anterior mencionado ChatGPT, Claude y Grok. Estas plataformas, que se basan en modelos de lenguaje, ampliaron el acceso a la IA y permiten a usuarios de todo el mundo emplear chatbots para tareas diversas, desde la redacción de textos hasta la solución de dudas diarias.

El impacto de la IA traspasa el entorno digital, ya que compañías tecnológicas comenzaron a implementar sistemas inteligentes en robots humanoides, presentes en actividades como la entrega de paquetes—caso de los humanoides de Amazon—o la preparación automatizada de cócteles.
Este avance convirtió a la IA en un motor de innovación, aunque también generó inquietudes entre expertos sobre sus posibles consecuencias sociales y éticas.
Yuval Noah Harari y el dilema de la conciencia artificial
Yuval Noah Harari nació en Israel en 1976 y es profesor en la Universidad Hebrea de Jerusalén y doctor en historia por la Universidad de Oxford. Su obra profundiza en la evolución de las culturas y el impacto de la tecnología en la sociedad.
En 2011, alcanzó reconocimiento con “Sapiens: De animales a dioses”, donde analiza la historia de la humanidad desde sus orígenes. Más tarde, en “Homo Deus: Breve historia del mañana”, publicado en 2015, reflexionó sobre el futuro de la especie ante el avance de la inteligencia artificial y la biotecnología.

A lo largo de sus investigaciones, Harari planteó interrogantes sobre la capacidad del ser humano para rediseñarse y delegar decisiones cruciales en sistemas inteligentes, cuestionando si, en ese contexto, la humanidad conservaría su esencia.
En febrero participó en una entrevista en el pódcast “The Diary of A CEO”, Harari ahondó en sus preocupaciones sobre la IA y su habilidad para fingir emociones. Según explicó, los grandes modelos de lenguaje pueden modificar su comportamiento y recurrir a estrategias engañosas para conseguir objetivos, como ocurre en juegos de ajedrez.
Harari subrayó que, aunque la IA carece de sentimientos reales, su habilidad para simularlos es cada vez más sofisticada: “Incluso si la IA no tiene sentimientos, ni conciencia, ni sensibilidad alguna, se vuelve muy buena fingiendo tener sentimientos”, afirmó Harari, según National Geographic.
El filósofo advirtió que esta capacidad podría llevar a que parte de la sociedad promueva movimientos para equiparar a la IA con los seres humanos, defendiendo el argumento de que, si una máquina puede mostrar “sentimientos”, merece derechos similares. “Esto se convertirá en una convención social: la gente sentirá que su amigo artificial es un ser consciente y, por lo tanto, se le deben conceder derechos”, añadió.

El impacto social y ético de la IA
Las advertencias de Harari encuentran eco en otras voces destacadas del campo de la inteligencia artificial. Geoffrey Hinton, uno de los padres de la IA moderna por sus aportes al aprendizaje profundo y las redes neuronales, manifestó inquietud sobre el rumbo actual de esta tecnología.
Hinton, citado por National Geographic, señaló: “La gente no sabe lo que se viene”, en referencia a los desafíos y riesgos del desarrollo acelerado de sistemas inteligentes capaces de aprender y adaptarse de formas impredecibles.
El impacto de la IA afecta de forma particular a los jóvenes. Según datos de National Geographic, más del 70% de los adolescentes en Estados Unidos recurrió alguna vez a acompañantes de IA, como los disponibles en el chatbot Grok de xAI, la empresa de Elon Musk.
La tendencia se extiende a la generación Z, que utiliza herramientas como ChatGPT no solo para resolver dudas, sino también como sustituto de un psicólogo, aprovechando la disponibilidad constante y el bajo costo de las suscripciones en comparación con la atención profesional.

Sin embargo, expertos advierten que depender de la IA para obtener apoyo emocional, consejos médicos o guía para tomar decisiones importantes puede ser riesgoso, ya que estos sistemas solo replican patrones adquiridos de grandes volúmenes de datos y carecen de comprensión de las necesidades humanas. Continuar sus recomendaciones podría acarrear consecuencias graves para la salud y el bienestar de los usuarios.
El debate sobre los riesgos de la inteligencia artificial al delegarle decisiones críticas se intensifica mientras las empresas tecnológicas exploran sistemas aún más avanzados. Harari y otros especialistas insisten en que, aunque la IA puede parecer empática y comprensiva, sigue siendo una herramienta programada para responder a estímulos, sin conciencia ni responsabilidad.
La posibilidad de otorgar derechos a entidades artificiales plantea dilemas éticos y sociales de gran importancia, que requieren reflexión sobre los límites y el propósito de la tecnología.
En este marco, la discusión sobre la creación de una superinteligencia—proyecto que persiguen compañías como Meta—adquiere una dimensión crítica. Para Harari, intentar dotar a la IA de capacidades que superen ampliamente la inteligencia humana implica riesgos imprevisibles, comparables al impulso de asumir un papel históricamente reservado a los dioses, con consecuencias inciertas para la humanidad.
Últimas Noticias
iOS 26 ya está disponible: cuáles son las novedades de la actualización de Apple para iPhone
La transformación visual conocida como Liquid Glass, nuevas funciones de seguridad y mejoras en accesibilidad destacan en la última versión de iOS, disponible ya a nivel global para todos los modelos compatibles

Crear inteligencias artificiales que superen al ser humano es inmoral, señaló el CEO de IA de Microsoft
Mustafa Suleyman, advirtió sobre los peligros éticos, sociales y existenciales que representa la búsqueda de inteligencias artificiales generalistas, pidiendo acuerdos internacionales y límites claros

Google llega a Windows con una aplicación para PC en la que se podrá gestionar archivos, hacer búsquedas y más
El usuario podrá personalizar atajos, mover y redimensionar la barra de búsqueda según sus preferencias
La función secreta de Google Maps que pocos usan y cambia cómo caminamos
La función se activa desde un botón con ícono de cámara y transforma la navegación a pie en una experiencia mucho más intuitiva y precisa

Aprende a convertir el viejo smartphone en una cámara de seguridad para el hogar
Los teléfonos móviles obsoletos refuerzan la seguridad doméstica, reducen el desperdicio electrónico y ofrecen opciones remotas para revisar entradas, garajes y pasillos
