
Sam Altman, director ejecutivo de OpenAI, ha admitido que la compañía no tiene control sobre el uso que el Pentágono da a su tecnología de inteligencia artificial, incluso en contextos militares y operaciones secretas.
Según informaron medios estadounidenses, Altman transmitió a los empleados que las decisiones operativas sobre el despliegue de la IA quedan exclusivamente en manos de las autoridades militares estadounidenses.
Tensión entre ética y uso militar de la inteligencia artificial
El anuncio de Altman se produce en medio de un debate creciente sobre los límites éticos en la aplicación de la inteligencia artificial en la esfera militar. OpenAI y otras empresas tecnológicas han recibido presiones del Departamento de Defensa de Estados Unidos (actualmente denominado “Department of War” tras una orden ejecutiva) para flexibilizar las restricciones de seguridad de sus modelos, con el objetivo de ampliar su uso en operaciones de defensa.
De acuerdo con Bloomberg, Altman subrayó ante su equipo: “Ustedes no pueden tomar decisiones operativas”, y ejemplificó la situación diciendo: “Quizá piensen que el ataque en Irán fue acertado y la invasión a Venezuela fue negativa. No les corresponde opinar al respecto”. Estas afirmaciones reflejan la distancia entre los desarrolladores de IA y las decisiones estratégicas sobre su uso real en conflictos.
Rivalidad empresarial y dilemas éticos
El contexto de estas declaraciones incluye una disputa directa entre OpenAI y Anthropic, su principal competidor, por contratos con el gobierno estadounidense. Anthropic, dirigida por Dario Amodei, rechazó recientemente un acuerdo con el Pentágono debido a preocupaciones sobre el posible uso de su IA para vigilancia interna masiva o el desarrollo de sistemas autónomos de armas.
Esta negativa provocó que el secretario de Defensa, Pete Hegseth, calificara a Anthropic como un “riesgo en la cadena de suministro”, una designación inédita para una empresa estadounidense y con graves implicaciones económicas si se oficializa.
Pocas horas después de la ruptura del acuerdo con Anthropic, el Pentágono anunció públicamente un convenio con OpenAI para reemplazar la tecnología de su rival en aplicaciones militares. The Information y ABC detallaron que esta decisión generó críticas tanto internas como externas hacia OpenAI, y desencadenó reacciones de empleados preocupados por el cruce de líneas éticas que Anthropic había decidido no atravesar.
Cambios y promesas tras la polémica
Ante la ola de cuestionamientos, Altman reconoció que el acuerdo con el Pentágono se firmó apresuradamente, lo que dio una imagen “oportunista y descuidada” de la compañía. En un intento de mitigar el daño reputacional, el CEO de OpenAI anunció la revisión del contrato para incluir garantías adicionales: la tecnología no se empleará para vigilancia interna de ciudadanos estadounidenses ni será usada por agencias como la NSA sin un nuevo acuerdo específico.
En declaraciones recogidas por CNBC, Altman afirmó: “Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva doméstica y la exigencia de responsabilidad humana en el uso de la fuerza, incluso en sistemas autónomos de armas”. El Departamento de Defensa respaldó públicamente estos compromisos, asegurando que la colaboración se limitará a usos legales y que cualquier excepción requerirá un acuerdo adicional.
Por su parte, Anthropic, tras ser apartada de los contratos gubernamentales, cuestionó la integridad de Altman y de la cúpula de OpenAI. En un comunicado interno divulgado por The Information, Amodei acusó a Altman de “falta de honestidad” y de intentar ofrecer “teatro de seguridad” para calmar a sus empleados, mientras cedía a presiones políticas y económicas.
El futuro de la IA en la defensa estadounidense
El choque entre las tecnológicas y el Departamento de Defensa expuso las dificultades para definir límites claros en el uso militar de la inteligencia artificial. Mientras Altman admite que OpenAI carece de control sobre la aplicación final de sus sistemas, el gobierno insiste en que solo busca utilizar la tecnología para fines legales y bajo supervisión.
La controversia deja abierta la discusión sobre quién debe establecer las líneas rojas en el avance de la IA militar: si corresponde a las empresas proveedoras o si la última palabra debe quedar del lado de los organismos estatales y de defensa.
Últimas Noticias
YouTube en Argentina: la lista de los 10 videos más reproducidos que son tendencia hoy
YouTube, la plataforma de videos más famosa del mundo, genera alrededor de 15 mil millones de dólares al trimestre y al día son reproducidos alrededor de 5 mil millones de clips

Estudio sugiere que los juguetes con IA pueden representar un riesgo de seguridad para los niños
Los investigadores advierten que los juguetes con inteligencia artificial pueden malinterpretar emociones

Cómo funciona el detector de WhatsApp que alerta sobre enlaces vinculados a estafas
El sistema, impulsado por inteligencia artificial, notifica al usuario cuando detecta vínculos extraños o comportamientos irregulares en mensajes

YouTube en Colombia: la lista de los 10 videos más reproducidos que son tendencia hoy
En el 2006 la revista Time otorgó a YouTube el premio por el Invento del Año

Top 10 videos más vistos en YouTube Chile hoy
En el 2006 la revista Time nombró a YouTube como el Invento del Año



