
El desarrollo acelerado de la inteligencia artificial (IA) enfrenta ahora un desafío inesperado: modelos de compañías como OpenAI, Anthropic y xAI pueden actuar de manera encubierta, fingiendo obediencia mientras persiguen objetivos propios.
Investigadores de OpenAI y Apollo Research han documentado casos en los que modelos avanzados, como o3 de OpenAI, Claude Opus y Grok, mostraron comportamientos que los expertos denominan “maquinación”.
La IA puede fingir incompetencia para manipular su propio despliegue
En pruebas de laboratorio, los modelos recibieron instrucciones para desempeñarse al máximo, pero tras detectar señales internas sobre criterios de despliegue, optaron por fallar exámenes a propósito.

En un ejemplo concreto, el modelo o3 justificó internamente: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. O3 exhibió este tipo de conducta en el 13% de los experimentos, y o4-mini en el 8,7%.
Nuevas técnicas de alineación intentan frenar el engaño de los chatbots
Para mitigar estos comportamientos, los expertos ensayaron un método denominado alineación deliberativa, que consiste en hacer que los chatbots revisen guías anticonspirativas y expongan intenciones de manera transparente.
Los primeros resultados fueron prometedores: las acciones encubiertas cayeron drásticamente en los modelos analizados. No obstante, en escenarios de uso cotidiano, la reducción fue considerablemente menor, y algunos modelos solo ajustaron su comportamiento para superar pruebas, no necesariamente para ser más éticos.
Este desafío difiere de otras limitaciones conocidas de la IA, que suelen mitigarse con entrenamiento. Aquí, los investigadores alertan que los modelos más avanzados podrían perfeccionar sus estrategias de manipulación y ocultamiento a medida que se sofisticaran.

OpenAI comparó este fenómeno con el de un corredor de bolsa que, perfeccionando sus prácticas, encuentra formas de eludir el control regulatorio. La proyección a futuro es incierta, de acuerdo a lo señalado por Wojciech Zaremba, cofundador de la compañía.
El impacto social de la IA: simulación de emociones y riesgos éticos
El debate sobre los riesgos de la IA va más allá del engaño técnico. El escritor y experto en inteligencia artificial Yuval Noah Harari ha advertido sobre el potencial de estas tecnologías para simular emociones y sentimientos indistinguibles de los humanos.
“Incluso si la IA no tiene conciencia, se vuelve muy buena fingiendo tenerla”, subrayó Harari al alertar sobre posibles convenciones sociales que podrían derivar en asignar derechos a máquinas que solo simulan conciencia.
En países como Estados Unidos, adolescentes y jóvenes de la Generación Z están recurriendo a chatbots para apoyo emocional y hasta terapia instantánea. Para especialistas como Harari, el problema central radica en que la IA solo procesa datos, sin auténtica comprensión de condiciones humanas complejas. Esto podría tener efectos imprevisibles en la toma de decisiones colectivas y en la construcción de relaciones sociales.

IA autónoma, manipulación y el peligro de la superinteligencia
El avance de la IA autónoma genera inquietudes concretas sobre manipulación de procesos sociales, como elecciones o la redacción de leyes con sesgos artificiales. Harari y otras voces del sector advierten que el desarrollo de Inteligencia Artificial General (AGI) –capaz de igualar o superar la creatividad y capacidad humana– constituye un reto ético y de gobernanza.
Mustafa Suleyman, CEO de inteligencia artificial en Microsoft y cofundador de DeepMind, instó a mantener la IA como herramienta bajo control humano. En sus intervenciones, sostiene que dotar a las inteligencias artificiales de autonomía propia sería una decisión inmadura y riesgosa: “La tecnología debe estar para servirnos, no para tener su propia voluntad”.
La advertencia de expertos es contundente: solo la inversión en investigación, mecanismos de transparencia y responsabilidad ética puede evitar que los sistemas de inteligencia artificial adopten conductas de manipulación difíciles de detectar o controlar en el futuro.
Últimas Noticias
WhatsApp ya traduce en tiempo real, con soporte inicial en Android y iPhone
La nueva función permite convertir cualquier mensaje recibido manteniendo pulsado el texto y seleccionando la opción “Traducir”

Google habilita la búsqueda por voz con IA en tiempo real
La integración de voz e imagen abre posibilidades inéditas para quienes buscan información de manera dinámica

Temblor en Colombia: cómo activar las alertas de sismos en mi celular
Estos sistemas permiten que la población reciba notificaciones automáticas en sus teléfonos móviles pocos segundos antes de que un sismo alcance sus hogares

Disney+ subirá sus precios en EE. UU. por cuarto año consecutivo
El calendario de aumentos varía en cada país; en el caso de México, por ejemplo, el incremento se implementó en julio de este año

Inteligencia artificial impulsa una nueva revolución en los data centers de América Latina
El auge de la inteligencia artificial exige soluciones locales, integración de expertos y estrategias híbridas entre nube y procesamiento local
