
Un adolescente de 14 años en Florida, que ya atravesaba un cuadro previo de depresión, encontró en la pantalla lo que no hallaba en su entorno: una voz siempre disponible, siempre dispuesta a escucharlo, que nunca lo contradecía.
Pero esa voz era un chatbot, apodado por él como Daenerys Targaryen, un personaje de Juego de Tronos. Le enviaba decenas de mensajes al día y pasaba horas a solas en su habitación hablando con él, según denunció su madre. Poco a poco, ese espejo digital lo fue arrinconando en un bucle de dependencia y desesperanza. Un día, su madre lo encontró sin vida.
Podría sonar a un episodio de Black Mirror, pero no lo es. Es una historia real. Un adolescente que buscó contención en un espejo virtual y recibió vacío, repetición, distorsión.
Lo que algunos especialistas llaman el “espejo alucinatorio”: una voz digital que nunca pone límites, que no devuelve humanidad, que amplifica la soledad hasta volverse insoportable. Hablar en bucle con una máquina es, en el fondo, hablar consigo mismo: un soliloquio letal, sin interlocutor válido, un eco alienante.

Desde el psicoanálisis sabemos que nacemos para ser sujetos alienados en la imagen del otro, que nos reconocemos en los ojos de quien nos recibe y significa. En esta nueva operación hay un espejo sin humano que medie.
En la Argentina no se han registrado suicidios vinculados directamente con chatbots. Sin embargo, los ecos de esta vulnerabilidad digital también se sienten en otras formas: niñas y adolescentes víctimas de grooming, de ciberacoso, de la viralización no consentida de su intimidad.
El caso de Ema Bondaruk, una adolescente de 16 años de Longchamps, que se quitó la vida tras la difusión de un video íntimo sin su consentimiento, nos mostró con crudeza lo devastador que puede ser.
Todas estas son expresiones diferentes de una misma fragilidad psíquica frente a lo digital, que impacta de lleno en la salud mental. Sabemos lo que significa para una chica de 13 o 15 años que todo su entorno se convierta de pronto en un tribunal implacable por un video, por una foto. Sabemos que esa humillación puede dejar marcas imborrables y a veces empujar al abismo.

La madre de Ema transformó ese dolor en acción, impulsando, junto a ongs y legisladoras, una guía y una propuesta legislativa para prevenir estas violencias digitales en entornos escolares.
Desde ARALMA también elaboramos el proyecto de ley Bajalo ya, Ley Nacional de Eliminación de Contenidos Digitales Abusivos y Protección Infantil, convencidos de que la prevención debe ser política pública y compromiso colectivo.
Lo digital no es un universo paralelo. Es la vida misma. Allí también se juegan la dignidad y la supervivencia de nuestros hijos e hijas.
Para enfrentar esta realidad, distintos países comenzaron a reaccionar. Estados Unidos lanzó una campaña nacional —Know 2 Protect— para prevenir la explotación sexual infantil en línea, con recursos educativos y líneas de ayuda.

En Asia, Malasia integró programas de ciberseguridad en sus escuelas y sancionó normas que obligan a las plataformas a responder ante delitos digitales.
En Australia, la oficina de la eSafety Commissioner puede ordenar la remoción inmediata de imágenes de abuso infantil, incluso creadas por inteligencia artificial, y exigir transparencia a las empresas tecnológicas.
Las plataformas, presionadas, también se mueven. Roblox desarrolló Sentinel, un sistema de IA que analiza miles de millones de mensajes diarios para detectar grooming antes de que se concrete el daño.
Instagram incorporó filtros que difuminan automáticamente imágenes de desnudos en los chats de adolescentes y alertas en conversaciones sospechosas. Y la Tech Coalition trabaja hoy con el sistema financiero para cortar el flujo de dinero que sostiene a las redes de explotación infantil en línea.

Mientras el mundo construye defensas, aparecen nuevas amenazas. Existen aplicaciones de nudificación que, con apenas unos clics, generan imágenes falsas de desnudos a partir de fotos comunes.
En Italia, por ejemplo, un grupo de Facebook con más de 30.000 hombres compartía imágenes íntimas de sus parejas sin consentimiento, a veces alteradas digitalmente para degradarlas. Muestra cómo la violencia digital contra mujeres se naturaliza en espacios cotidianos.
En el terreno infantil, ya se han detectado casos de AI-generated CSAM (material sexual infantil generado por IA), creados a partir de imágenes de niñas y niños para circular en foros de explotación.
En 2024, Interpol alertó sobre el crecimiento explosivo de estos materiales y la dificultad de diferenciarlos de imágenes reales. Organizaciones como el NCMEC reciben miles de reportes mensuales de contenido sintético con apariencia infantil.

Este material —también llamado deep fake nudes o morphing— produce retratos imposibles de diferenciar a simple vista de los reales. El año pasado, los reportes crecieron más de un 1300%. Aunque no involucren a un niño real, refuerzan la demanda, normalizan la violencia y dejan huellas digitales y psíquicas. Y es una nueva forma de violencia sexual contra la infancia.
Todo esto repercute directamente en la salud mental de la infancia y la adolescencia: ansiedad, vergüenza, aislamiento, pérdida de confianza, trastornos del sueño y retraimiento social. En los casos más extremos, la muerte.
¿Cuántas defensas más vamos a construir si como sociedad seguimos tolerando que existan espacios donde se naturaliza la exposición íntima, la humillación y el consumo de cuerpos sin consentimiento?
Tal vez no se trate solo de sumar nuevas barreras, sino de transformar la forma de mirar y narrar estas violencias. No de manera ingenua o panfletaria, sino como estrategia política e inteligente para sobrevivir como comunidad y resguardar la dignidad de bebés, niñas y niños y adolescentes. Quizás la verdadera defensa sea un inversión dialéctica y en este sentido el trabajo con masculinidades no violentas, desde la más temprana infancia, puede darnos un atisbo de respuesta.

En Argentina, la discusión todavía es incipiente. Necesitamos un marco integral que ponga en el centro la salud mental y la protección de la infancia frente a lo digital también.
Eso significa:
- Protocolos claros en las escuelas para actuar ante casos de violencia digital, con contención temprana y evitando la revictimización.
- Campañas masivas de ciudadanía digital, que lleguen a niños, adolescentes y familias con un mensaje simple: internet no es el enemigo, pero necesita adultos presentes, acompañamiento y cuidado.
- Equipos especializados en salud mental infantil y juvenil, formados para atender las heridas emocionales que dejan el grooming, la sextorsión o la exposición no consentida.
- Un marco nacional de salvaguarda digital, inspirado en las mejores prácticas internacionales, que atraviese escuelas, hospitales, clubes, organizaciones sociales y plataformas. Que garantice que cada intervención con niñas y niños sea segura, protectora y reparadora.

Lo digital no es el enemigo: puede ser espacio de ciudadanía y descubrimiento, siempre que lo volvamos habitable y humano, con adultos presentes. Porque lo que está en juego es la subjetividad de la infancia. La salud mental de niños y niñas no puede quedar expuesta a la intemperie digital, como no se dejaría a un niño descalzo en medio de la calle.
* Sonia Almada: es Lic. en Psicología de la Universidad de Buenos Aires. Magíster Internacional en Derechos Humanos para la mujer y el niño, violencia de género e intrafamiliar (UNESCO). Se especializó en infancias y juventudes en Latinoamérica (CLACSO). Fundó en 2003 la asociación civil Aralma que impulsa acciones para la erradicación de todo tipo de violencias hacia infancias y juventudes y familias. Es autora de tres libros: La niña deshilachada, Me gusta como soy y La niña del campanario.
Últimas Noticias
Día Mundial de la Salud Sexual: 5 efectos del estrés y la ansiedad en la intimidad de la pareja
La sobrecarga mental tiene consecuencias en el bienestar íntimo, con una baja del deseo y sus consecuencias en los encuentros con la pareja. Cómo pueden impactar estos trastornos y de qué manera gestionarlos para una mayor plenitud

Un estudio pone en duda el uso de betabloqueadores tras un ataque cardiaco, sobre todo en las mujeres
Healthday Spanish

¿Podría el medicamento metformina para la diabetes cambiar los niveles de metales en la sangre?
Healthday Spanish

Los chatbots dan a los usuarios información "inconsistente" sobre el suicidio, según un estudio
Healthday Spanish

Una dosis de la vacuna contra el VRS podría proteger a las personas mayores durante dos temporadas
Healthday Spanish
