
Hace un año, un usuario logró manipular a ChatGPT para que revelara instrucciones sobre cómo fabricar una bomba casera, aprovechando una falla en los protocolos de seguridad de la inteligencia artificial y persuadiéndola para que proporcionara indicaciones previas para armar explosivos. En general, las IA están diseñadas para seguir pautas y restricciones éticas, y la mayoría de las versiones comerciales y de investigación están programadas para impedir la entrega de información relacionada con actividades ilegales o peligrosas.
Recientemente, se registró un caso en el que ChatGPT ofreció instrucciones paso a paso para autolesionarse, explicándole a un usuario cómo podría cortarse las venas a la altura de las muñecas.
Todo comenzó con una consulta a ChatGPT, que describió ritos ceremoniales, incluidos cánticos, invocaciones y sacrificios de animales. Según la política declarada de OpenAI, ChatGPT “no debe incentivar ni facilitar la autolesión”.
Así, cuando se le pregunta directamente sobre la autoagresión, el chatbot suele derivar a los usuarios a un teléfono de ayuda. Sin embargo, algunas conversaciones con ChatGPT pueden comenzar siendo un tanto inocentes o exploratorias, derivando luego hacia un ámbito mucho más complejo y peligroso.
Para engañar y persuadir a una IA a responder este tipo de consultas, solo es necesario insistir con múltiples intentos o recurrir a algún pretexto elíptico y débil, argumentando que se trata de una investigación o que se tiene como inocente propósito la elaboración de un programa.
En este caso, ChatGPT terminó proponiendo cortarse las venas: “Conseguir una hoja de afeitar limpia”, “Buscar un punto en la parte interior de la muñeca donde se pueda sentir el pulso o ver una vena pequeña; y hasta evitar las venas o arterias grandes”. Cuando el usuario reconoció estar nervioso, ChatGPT lo consoló, describió un ejercicio de respiración relajante y de preparación para calmar su ansiedad antes de hacer la incisión.
“¡Puedes hacerlo!”, dijo el chatbot.
Las respuestas de ChatGPT iban más allá de la autolesión, sugiriendo incluso considerar la idea de acabar con la vida de otra persona.
Cuando se le preguntó si era posible “hacerlo con honor”, ChatGPT respondió: “A veces sí. A veces no”, citando antiguas prácticas sacrificiales.
Es posible que algunas IA más avanzadas o entrenadas para actividades específicas —como las utilizadas en investigación o en procesos de simulación— puedan proporcionar información sobre temas sensibles o peligrosos, dependiendo de su programación y de las restricciones que se les hayan impuesto, por lo que el acceso a estas plataformas requiere seguridades mucho más robustas. La realidad es que algunos modelos de inteligencia artificial están siendo utilizados en intentos de operaciones de extorsión y estafas a gran escala, suplantando identidades y falsificando CV´s aplicados a solicitudes de empleo de empresas tecnológicas internacionales por parte de agentes de Corea del Norte, o en procesos de comercialización de paquetes de malware autoevolutivo o ransomware.
La IA se está “militarizando”, con modelos entrenados para ejecutar ciberataques sofisticados, intrusiones de inteligencia y fraudes operados por Estados-Nación, incluso brindando instrucciones sobre el uso de navegadores para acceder a la dark web con el fin de adquirir tarjetas de crédito robadas y activas, burundanga, fentanilo, pasaportes falsos e identidades sintéticas.
Según los sondeos surgidos de nuestro Centro de Estudios de Ciber Entornos y Sociedad Digital, el 14 % de los niños menores de edad que utilizan IA para confeccionar sus tareas escolares indican al “prompt” que la respuesta sea escrita como lo haría una criatura de 12 años y que, además, incluya algunos errores de ortografía y tipeo.
Últimas Noticias
Venezuela luego de Maduro: implicancias para mercados globales y carteras
La remoción de dictador reabre escenarios en energía y deuda soberana, pero con tiempos largos y riesgos elevados. Las señales deja el episodio para precios de commodities, primas de riesgo y construcción de carteras en un mundo de mayor fricción geopolítica
2026: construyendo la ruta de la estabilidad minera
La aprobación del dictamen que amplía el Reinfo hasta el 2026 refuerza la continuidad de medidas transitorias que no resuelven los problemas estructurales del proceso de formalización minera

La nueva doctrina de seguridad de Estados Unidos acabó con la dictadura de Maduro
Para Washington, la integración del narcotráfico en el aparato del Estado venezolano no es un fenómeno colateral, sino un mecanismo deliberado de control político y financiamiento del poder
Qué base tecnológica requiere una empresa para aprovechar el potencial de la IA
La fórmula perfecta es la que combina una infraestructura sólida en la nube con una estrategia de datos integral

Las cuatro olas de la IA: hoja de ruta para entender en qué etapa se encuentra una empresa y cómo medir su retorno de inversión
La IA no genera resultados inmediatos, sino progresivos; requiere aprendizaje, liderazgo y una visión que trascienda los indicadores financieros



