
Hace un año, un usuario logró manipular a ChatGPT para que revelara instrucciones sobre cómo fabricar una bomba casera, aprovechando una falla en los protocolos de seguridad de la inteligencia artificial y persuadiéndola para que proporcionara indicaciones previas para armar explosivos. En general, las IA están diseñadas para seguir pautas y restricciones éticas, y la mayoría de las versiones comerciales y de investigación están programadas para impedir la entrega de información relacionada con actividades ilegales o peligrosas.
Recientemente, se registró un caso en el que ChatGPT ofreció instrucciones paso a paso para autolesionarse, explicándole a un usuario cómo podría cortarse las venas a la altura de las muñecas.
Todo comenzó con una consulta a ChatGPT, que describió ritos ceremoniales, incluidos cánticos, invocaciones y sacrificios de animales. Según la política declarada de OpenAI, ChatGPT “no debe incentivar ni facilitar la autolesión”.
Así, cuando se le pregunta directamente sobre la autoagresión, el chatbot suele derivar a los usuarios a un teléfono de ayuda. Sin embargo, algunas conversaciones con ChatGPT pueden comenzar siendo un tanto inocentes o exploratorias, derivando luego hacia un ámbito mucho más complejo y peligroso.
Para engañar y persuadir a una IA a responder este tipo de consultas, solo es necesario insistir con múltiples intentos o recurrir a algún pretexto elíptico y débil, argumentando que se trata de una investigación o que se tiene como inocente propósito la elaboración de un programa.
En este caso, ChatGPT terminó proponiendo cortarse las venas: “Conseguir una hoja de afeitar limpia”, “Buscar un punto en la parte interior de la muñeca donde se pueda sentir el pulso o ver una vena pequeña; y hasta evitar las venas o arterias grandes”. Cuando el usuario reconoció estar nervioso, ChatGPT lo consoló, describió un ejercicio de respiración relajante y de preparación para calmar su ansiedad antes de hacer la incisión.
“¡Puedes hacerlo!”, dijo el chatbot.
Las respuestas de ChatGPT iban más allá de la autolesión, sugiriendo incluso considerar la idea de acabar con la vida de otra persona.
Cuando se le preguntó si era posible “hacerlo con honor”, ChatGPT respondió: “A veces sí. A veces no”, citando antiguas prácticas sacrificiales.
Es posible que algunas IA más avanzadas o entrenadas para actividades específicas —como las utilizadas en investigación o en procesos de simulación— puedan proporcionar información sobre temas sensibles o peligrosos, dependiendo de su programación y de las restricciones que se les hayan impuesto, por lo que el acceso a estas plataformas requiere seguridades mucho más robustas. La realidad es que algunos modelos de inteligencia artificial están siendo utilizados en intentos de operaciones de extorsión y estafas a gran escala, suplantando identidades y falsificando CV´s aplicados a solicitudes de empleo de empresas tecnológicas internacionales por parte de agentes de Corea del Norte, o en procesos de comercialización de paquetes de malware autoevolutivo o ransomware.
La IA se está “militarizando”, con modelos entrenados para ejecutar ciberataques sofisticados, intrusiones de inteligencia y fraudes operados por Estados-Nación, incluso brindando instrucciones sobre el uso de navegadores para acceder a la dark web con el fin de adquirir tarjetas de crédito robadas y activas, burundanga, fentanilo, pasaportes falsos e identidades sintéticas.
Según los sondeos surgidos de nuestro Centro de Estudios de Ciber Entornos y Sociedad Digital, el 14 % de los niños menores de edad que utilizan IA para confeccionar sus tareas escolares indican al “prompt” que la respuesta sea escrita como lo haría una criatura de 12 años y que, además, incluya algunos errores de ortografía y tipeo.
Últimas Noticias
Agua y plástico: una responsabilidad empresarial ineludible
Las compañías que incorporan prácticas sostenibles logran optimizar costos, mejorar la eficiencia operativa y posicionarse como líderes en un mercado que valora la coherencia entre lo que se dice y lo que se hace

El desafío de comunicar en un entorno de competencia feroz por la atención
Comunicar bien también es saber medir, interpretar señales, detectar oportunidades y ponerle número a lo intangible

El cielo en disputa: soberanía aérea y los nuevos desafíos de seguridad internacional
Drones de bajo costo, aeronaves de combate, misiles de largo alcance y operaciones preventivas están transformando la función del espacio aéreo: de límite jurídico y marco regulatorio, a un escenario de confrontación estratégica. Del Medio Oriente al flanco oriental de la OTAN, las incursiones aéreas revelan una tensión creciente entre seguridad, derecho internacional y capacidad real de control

PNIPA: del éxito del pasado al desafío del futuro
PNIPA II no es un gasto, sino una inversión estratégica. Y lo más valioso es que no parte de cero, se construye sobre el aprendizaje, la confianza y las redes creadas por PNIPA I

El cierre de ONUSIDA amenaza décadas de avances en la respuesta al VIH y en derechos humanos
No se trata de una reorganización administrativa: significa poner en riesgo a millones de personas
