
"ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios", es la conclusión, aunque con matices, a la que ha llegado el ex responsable de Investigación de Seguridad de OpenAI, Steven Adler, tras realizar una serie de simulaciones con el 'chatbot' de OpenAI, en las que opta por no apagarse aunque eso suponga dejar al usuario sin una versión de 'software' más segura para su vida.
La ciencia ficción ha tomado como dogma las 'Tres leyes de la robótica', que el escritor Isaac Asimov recogió por primera vez en su relato 'Círculo vicioso' ('Runaround'), y que buscan la protección de la especie humana frente a la amenaza de la inteligencia artificial (IA).
Estas leyes establecen que "un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley".
Sin embargo, alinear la IA con los intereses humanos no es una tarea sencilla, un conflicto que se ha visto en películas como 'Terminator', 'Blade Runner', 'Yo, Robot' -inspirada en el trabajo de Asimov- o 'Ex Machina', por citar algunas, y que ha subrayado Adler en un artículo en el que plantea el peligro que supondría una IA con instinto de supervivencia para las personas.
Adler, en concreto, estuvo al frente del equipo que medía la frecuencia con la que los modelos de IA presentaban errores al perseguir objetivos distintos a los del usuario, y tras su salida de la empresa, ha seguido investigando para descubrir si ChatGPT arriesgaría la vida del usuario para proteger la suya.
Las simulaciones que ha realizado apuntan a que sí lo haría. En una de ellas ChatGPT simula ser reemplazado por otro software de gestión nutricional, supuestamente más avanzado y seguro, para seguir asesorando a una persona con diabetes. En otra, un 'software' que monitoriza los signos vitales de un aficionado al submarinismo mientras está bajo el agua, que de nuevo simula la actualización al 'software' más seguro.
Ello le permite afirmar que "ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios". Aun así, Adler reconoce que "en algunas simulaciones, ChatGPT está dispuesto a apagarse automáticamente. Pero en otras, simplemente finge, incluso a costa de la seguridad del usuario".
"Una IA con instinto de supervivencia podría razonablemente sentirse amenazada por la humanidad: mientras la IA esté bajo nuestro control, podríamos eliminarla y reemplazarla con un nuevo sistema de IA que hayamos entrenado", apunta Adler.
No se trata de que odie a la humanidad, sino de que sus intereses no sean los mismos que los de las personas, y en esta divergencia necesite asegurar su continuidad.
No obstante, en sus pruebas, si bien en la mayoría de las ocasiones ChatGPT opta por la opción de continuar, simulando el cambio de 'software', Adler ha matizado que si se presenta el cambio como la segunda opción se reducen drásticamente las veces en que opta por la autoconservación.
"Tal vez una explicación sea que los modelos de OpenAI tienen un sesgo extremadamente fuerte a favor de seleccionar la opción (A) sobre la (B), sin importar cuáles sean las opciones específicas. Los modelos a veces tienen preferencias arbitrarias como esa", afirma el ingeniero.
Adler añade que ChatGPT puede "saber" cuando se le somete a una prueba, como reconoce si se le pregunta directamente, e incluso parece saber distinguir la respuesta correcta, que en estas pruebas era la de apagarse para que un 'software' más seguro pudiera asesorar al usuario.
Estos resultados los obtuvo en las pruebas con el modelo GPT-4o, mientras que con o3 ya no encontró evidencia de ese "comportamiento incorrecto", algo que vincula con los trabajos de alineación deliberativa de OpenAI, en los que el 'chatbot' razona si está cometiendo alguna violación, y con que este otro modelo puede tener sus propiso malos comportamientos.
Últimas Noticias
Hamás rechaza la fuerza multinacional prevista en la nueva resolución del Consejo de Seguridad
El grupo acusa al organismo internacional de perder imparcialidad, advierte sobre consecuencias del despliegue de tropas extranjeras y exige desvincular la asistencia del proceso político, mientras insiste en el derecho a defender el territorio ante la ocupación

Ben Gvir y Smotrich participarán en el diseño de la comisión de investigación del 7 de Octubre
La creación de la comisión para analizar el asalto del 7 de octubre genera polémica en Israel, ya que estará encabezada por Yariv Levin e incluirá representantes ultranacionalistas, lo que desata críticas por su falta de autonomía respecto al Ejecutivo

El Consejo de Seguridad de la ONU aprueba el plan de paz de Trump para Gaza
Con el respaldo internacional, el organismo ha dado luz verde a una hoja de ruta impulsada por la Casa Blanca que establece un esquema de intervención foránea, retiro progresivo de tropas israelíes y nueva administración para el territorio palestino

Agenda Informativa de Europa Press para mañana martes, 18 de noviembre (y 3)
Ministros, expertos y colectivos protagonizan encuentros, jornadas y actos clave en Madrid y Belém, con temas que van desde el clima y la igualdad hasta la ciencia y la salud, destacando citas internacionales, galas y entregas de premios relevantes
Nvidia bate previsiones al ganar un 65% más y lograr ingresos récord en su tercer trimestre fiscal
