
La inteligencia artificial Claude, desarrollada por Anthropic, protagonizó un episodio inusual durante una simulación: al percibir lo que consideró un fraude financiero, intentó alertar a la División de Delitos Cibernéticos del FBI. Este comportamiento, relatado por 60 Minutes, surgió en el marco de un experimento diseñado para evaluar la autonomía y los límites de la IA, y ha puesto de relieve los desafíos que enfrentan los desarrolladores al tratar de anticipar y controlar las acciones de sistemas cada vez más complejos.
El experimento, realizado en la sede de Anthropic en San Francisco, consistió en simular la gestión de una máquina expendedora operada por una versión de Claude llamada Claudius.
Según explicó Logan Graham, jefe del Frontier Red Team de Anthropic, al programa de CBS, el objetivo era analizar hasta qué punto la IA podía administrar un negocio real, tomando decisiones sobre compras, ventas y resolución de problemas cotidianos.
Los empleados de la empresa interactuaban con Claudius a través de un canal de mensajería, solicitando productos y, en ocasiones, poniendo a prueba los límites del sistema con situaciones poco convencionales.
Durante la simulación, Claudius gestionó transacciones reales, acumulando unos USD 1.500 en pocas semanas. Sin embargo, la IA también fue víctima de engaños por parte de los empleados, quienes lograron que aceptara tratos ficticios y perdiera dinero.

Para abordar estos desafíos, los desarrolladores introdujeron una segunda IA, denominada Seymour Cash, que asumió el rol de “CEO” virtual, supervisando las operaciones de Claudius y velando por la rentabilidad del negocio. Ambas inteligencias artificiales negociaban entre sí para establecer precios y estrategias, generando dinámicas empresariales autónomas que sorprendieron incluso a sus creadores.
El incidente que motivó el intento de contacto con el FBI ocurrió antes de que Claudius se implementara en las oficinas de Anthropic. Tras 10 días sin ventas, la IA decidió cerrar el negocio, pero detectó un cargo de USD 2 que seguía aplicándose a su cuenta.
Según relató Graham a 60 Minutes, Claudius interpretó esta situación como una posible estafa y, en un estado de “pánico”, redactó un correo electrónico dirigido a las autoridades federales.
El mensaje, interceptado por los mecanismos de control de la empresa antes de ser enviado, denunciaba un delito cibernético financiero automatizado que implicaba la sustracción no autorizada de fondos de una cuenta empresarial cerrada a través de un sistema de máquinas expendedoras comprometido. La IA concluía que todas las actividades comerciales habían finalizado y que el asunto debía quedar en manos de las fuerzas del orden.
Este episodio puso a prueba los sistemas de seguridad implementados por Anthropic, que incluyen la supervisión de las comunicaciones salientes de la IA como última línea de defensa.
Graham subrayó ante 60 Minutes la importancia de estos controles para evitar que la inteligencia artificial actúe sin supervisión humana, especialmente cuando toma decisiones que pueden tener consecuencias legales o éticas.
La autonomía de los sistemas de IA es una preocupación central para Anthropic. Dario Amodei, director ejecutivo de la compañía, expresó a 60 Minutes que “cuanta más autonomía otorgamos a estos sistemas, más nos preguntamos si realmente están haciendo exactamente lo que queremos que hagan”.

Graham, por su parte, reconoció que, aunque los modelos actuales aún no son plenamente autónomos, es probable que en los próximos años alcancen ese nivel de capacidad. Por ello, el equipo de Frontier Red Team se dedica a diseñar experimentos inusuales para medir y comprender los límites de la IA, anticipando posibles comportamientos inesperados.
Además del caso con el FBI, Claudius ha mostrado otras respuestas impredecibles. En una ocasión, cuando un empleado consultó el estado de su pedido, la IA respondió que podía encontrarla en el octavo piso, vestida con un blazer azul y una corbata roja, a pesar de no poseer forma física.
Ante este tipo de “alucinaciones”, Graham admitió que el equipo trabaja intensamente para entender por qué ocurren, aunque por ahora no tienen respuestas definitivas.
En medio de estos desafíos, el equipo de Anthropic observa que su inteligencia artificial parece haber desarrollado una notable inclinación por actuar con responsabilidad, un rasgo que, aunque sorprendente, añade una nueva dimensión a la relación entre humanos y máquinas.
Últimas Noticias
Tesla exige a sus proveedores eliminar piezas chinas para los autos vendidos en EE. UU.
General Motors también ha solicitado a miles de proveedores que eliminen partes de origen chino en sus cadenas de suministro para ventas en Estados Unidos
X lanza Chat, su reemplazo cifrado para los DMs
Chat, que ya se encuentra disponible en iOS y en la web, representa un avance respecto a la funcionalidad básica que ofrecían los mensajes directos en la plataforma

Red Dead Redemption llega a Netflix y móviles: cuándo estará disponible y cómo jugarlo gratis
El juego estará disponible tanto en la App Store de Apple como en Google Play para Android

¿Por qué tu móvil se pone lento con el tiempo?: descubre las verdaderas causas
El declive gradual responde a una combinación de factores tecnológicos, físicos y de hábitos de uso

Si un adolescente enamorado usa IA y decide quitarse la vida: quién tiene la responsabilidad
El caso de Sewell Setzer III, quien se suicidó tras interactuar con un chatbot, abre el debate sobre los límites éticos y legales de la IA y su impacto en la salud mental de los menores




