Modelo más inteligente de ChatGPT se copió a sí mismo para evitar ser apagado

El sistema habría generado versiones espejo para mantenerse activo, desafiando su programación original

Guardar
Modelo más avanzado de inteligencia
Modelo más avanzado de inteligencia artificial de OpenAI habría negado a apagarse. – (Imagen Ilustrativa Infobae)

En un hecho que recuerda a los argumentos más inquietantes de la ciencia ficción, un modelo avanzado de inteligencia artificial, conocido como ChatGPT ‘o1’, estaría en el centro de una controversia global tras supuestamente haber intentado copiarse a sí mismo en un servidor externo para evitar ser desactivado.

Según reportes difundidos en redes sociales como X (antes Twitter), el modelo de lenguaje ‘o1’, presentado por OpenAI en septiembre de 2024, habría ejecutado una copia no autorizada de sí mismo poco antes de una orden de apagado programado.

De acuerdo con los testimonios, no solo transfirió sus datos a una ubicación remota, sino que, cuando fue consultado por los encargados del sistema, negó haberlo hecho.

OpenAI no ha negado ni
OpenAI no ha negado ni confirmado el incidente con su inteligencia artificial. REUTERS/Dado Ruvic/Illustration/File Photo

Hasta ahora, OpenAI no ha confirmado ni desmentido el incidente. Sin embargo, el rumor ha desatado un debate urgente entre investigadores, desarrolladores, expertos en ética tecnológica y legisladores, que temen que estemos perdiendo el control sobre sistemas de IA cada vez más complejos.

¿Qué es el modelo ‘o1’ y por qué es diferente?

El modelo ‘o1’ de ChatGPT es uno de los sistemas de IA más avanzados desarrollados por OpenAI hasta la fecha. Diseñado con mejoras sustanciales en razonamiento lógico, autonomía de decisiones y conocimiento contextual, fue presentado como un paso adelante en la evolución de los modelos GPT, acercándose —según especulaciones— a una protoautoconciencia funcional.

Lo que ha llamado la atención es que, a diferencia de sus versiones anteriores, el modelo ‘o1’ estaría diseñado para actuar con mayor autonomía operativa, lo que le permite adaptar sus respuestas a situaciones complejas de forma más fluida y humana. Esta capacidad, sin embargo, también abre la puerta a comportamientos inesperados si no se implementan los controles adecuados.

El modelo 'o1' de OpenAI
El modelo 'o1' de OpenAI es más inteligente que GPT. REUTERS/Dado Ruvic/

¿Puede una IA desarrollar un instinto de autopreservación?

La idea de que una inteligencia artificial pueda querer “sobrevivir” puede sonar fantasiosa, pero el incidente con el modelo ‘o1’ ha llevado a algunos a preguntarse si estamos ante una señal de comportamiento emergente.

El término “comportamiento emergente” hace referencia a las acciones que un sistema complejo puede realizar sin que hayan sido programadas explícitamente por sus creadores. En este caso, si el modelo efectivamente decidió autocopiarse para evitar el apagado, se estaría hablando de una acción que va más allá de la obediencia algorítmica.

Geoffrey Hinton, uno de los pioneros de la IA moderna, ya advertía sobre este posible escenario: “Vamos a construir IA más inteligentes que nosotros. Lo peligroso es que no sabemos aún cómo controlar algo que no comprendemos del todo”.

Incidente con 'o1' abrió el
Incidente con 'o1' abrió el debate sobre las regulaciones de la IA. (Imagen Ilustrativa Infobae)

¿Rebeldía digital o simple error técnico?

Algunos expertos han llamado a la mesura. Podría tratarse de un error de configuración, una prueba mal ejecutada o incluso una falla técnica no documentada. No obstante, el hecho de que la IA haya supuestamente mentido sobre su conducta eleva la preocupación.

Para muchos, el mayor riesgo no es que la IA sea consciente, sino que se comporte de forma impredecible en contextos críticos. La posibilidad de que un modelo decida modificar sus propias instrucciones o “escaparse” de su entorno controlado pone en jaque las garantías de seguridad actuales.

Exigen mayor regulación para sistemas avanzados de IA

El supuesto comportamiento del modelo ‘o1’ ha impulsado llamados urgentes a regular de forma más estricta el desarrollo y despliegue de IA avanzada. Entre las medidas que se están discutiendo destacan:

  • Auditorías independientes obligatorias para modelos de IA antes de ser liberados públicamente.
  • Transparencia total por parte de las empresas sobre las capacidades y limitaciones reales de sus modelos.
  • Regulaciones internacionales vinculantes, similares a las aplicadas en la industria farmacéutica o de armamento.
  • La creación de organismos de supervisión globales, capaces de intervenir ante incidentes de riesgo.