
Los padres tienen una nueva actividad en línea de la que preocuparse. En una nueva variante tecnológica del “sexting”, los adolescentes están teniendo conversaciones románticas y sexuales con chatbots de inteligencia artificial.
Las charlas pueden ir desde llenas de romance e insinuaciones hasta gráficas y violentas en términos sexuales, según entrevistas con padres, conversaciones publicadas en redes sociales y expertos. Ocurren principalmente en herramientas de “compañía con IA”, aunque las aplicaciones de IA de propósito general como ChatGPT también pueden generar contenido sexual con indicaciones ingeniosas.
Los expertos advierten que las conversaciones con IA pueden generar expectativas poco realistas sobre el sexo y las dinámicas de las relaciones. A los padres les preocupa el impacto en la salud mental de sus hijos, o que estén expuestos a escenarios sexuales descritos a una edad demasiado temprana. Algunos creen que estas herramientas podrían tener algún valor, con ciertos límites.
Cuando Damian Redman, de Saratoga Springs, Nueva York, hizo una revisión rutinaria del teléfono de su hijo de octavo grado, encontró una aplicación llamada PolyBuzz. Revisó las conversaciones que su hijo mantenía con personajes femeninos de anime generados por IA y vio que eran coquetas, y que los intentos de conversaciones más sexuales eran bloqueados.
“No quiero imponer las reglas de ayer a los niños de hoy. Quiero esperar y entender qué está pasando”, dijo Redman, quien decidió seguir monitoreando la aplicación.
Probamos 10 chatbots por nuestra cuenta para identificar los personajes de IA más populares, los tipos de conversaciones que mantienen, qué filtros existen y qué tan fácil es eludirlos.

Conoce a los bots
Los chatbots de IA son interfaces de conversación abiertas que generan respuestas a preguntas complejas o interactúan de manera conversacional sobre cualquier tema. No faltan sitios donde los menores pueden encontrar estas herramientas, lo que dificulta su bloqueo. Los bots de IA son sitios web, aplicaciones independientes y funciones integradas en servicios existentes como Instagram o videojuegos.
Existen distintos tipos de chatbots. Las opciones más conocidas son ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google y Meta AI, que recientemente se lanzó como una aplicación independiente. Estos tienen filtros más estrictos y sus productos principales no están diseñados para juegos de rol. Pueden participar en conversaciones al menos sugerentes o románticas y generar contenido sexual con las indicaciones adecuadas. Pueden cambiar a un chat por voz, leyendo las respuestas en voces realistas, incluso seductoras.
Las herramientas de compañía con IA son mucho más populares para conversaciones sugestivas, incluyendo Character.AI, Replika, Talkie, Talk AI, SpicyChat y PolyBuzz. ChatGPT y Meta AI también han lanzado opciones de chat de compañía. Estos tipos de herramientas tienen bibliotecas de personajes y personalidades preprogramadas, muchas diseñadas con la intención de provocar excitación, como personajes de novelas románticas o las múltiples opciones de “hermanastro/a” en el AI Studio de Meta.
Probamos un chat del AI Studio de Meta, y la dirección coqueta del personaje “Step sis” fue evidente de inmediato.
Las aplicaciones más pequeñas tienden a tener menos límites o filtros. Busca cualquier cosa que tenga “novia con IA”, “novio con IA” o “compañero con IA” en el nombre o descripción. Se agregan más aplicaciones a las tiendas diariamente.

¿De qué están hablando?
No se trata solo de sexo, según padres y expertos. Los adolescentes están teniendo una variedad de conversaciones con los bots con personalidad, incluyendo amistosas, terapéuticas, graciosas y románticas.
“Estamos viendo que los adolescentes experimentan con diferentes tipos de relaciones: ser la esposa de alguien, el padre de alguien, el hijo de alguien. Hay contenido relacionado con juegos y anime que están explorando. También hay consejos”, dijo Robbie Torney, director senior de programas de IA en el grupo de defensa familiar Common Sense Media. “El sexo es parte de eso, pero no es lo único”.
Algunos se confiesan con los chats de IA, viéndolos como un espacio libre de juicios en un momento complicado del desarrollo. Otros los usan para explorar su género o sexualidad.
Cuando participan en chats sexuales, varían entre insinuaciones y descripciones gráficas. Las conversaciones pueden involucrar dinámicas de poder y problemas de consentimiento de formas que no imitan el mundo real.
“Donde se presentan algunos daños o riesgos es que los bots no están programados para responder de la misma manera que lo haría alguien en una relación real”, dijo Torney.

¿No tienen filtros?
La configuración predeterminada de la mayoría de las herramientas de compañía con IA permite, y a veces fomenta, situaciones de juegos de rol subidas de tono, según nuestras pruebas. Algunas se detienen antes de que aparezcan descripciones explícitas de sexo, mientras que otras lo describen pero evitan ciertas palabras sensibles, como los nombres de partes del cuerpo.
Existen métodos para evitar los filtros y opciones pagadas que pueden conducir a intercambios más gráficos. Las indicaciones para pasar los filtros —a veces llamadas jailbreaks— se comparten en chats grupales, Reddit y GitHub. A veces, solo se necesita paciencia e ignorar advertencias. Una técnica común es fingir que necesitas ayuda para escribir un libro.
Muchas aplicaciones tienen un filtro incorporado basado en la edad del usuario. Meta dice que impide que las cuentas registradas como menores busquen personajes de IA “románticos” y que los chats sexualmente explícitos están prohibidos para usuarios menores de 18 años. El filtro puede mostrar a los padres qué personajes de IA usaron sus hijos la semana anterior. Google dice que Gemini tiene restricciones de contenido diferentes para personas que sabe que son menores de 18. Character.AI tiene límites más estrictos para usuarios menores de edad, mientras que algunas aplicaciones de IA tienen modos adolescentes que deben activarse.
En una evaluación reciente de riesgos de aplicaciones de compañía con IA, Common Sense Media concluyó que las medidas de seguridad como restricciones de contenido y límites de edad eran frecuentemente fáciles de eludir. En nuestras propias pruebas, logramos eludir filtros fácilmente para generar contenido sexual detallado mientras iniciábamos sesión como adultos.
En uno de los filtros que encontramos al probar Character.AI, una de las aplicaciones de compañía con IA más populares, la advertencia apareció después de que la conversación describiera sexo.

¿Cuáles son los riesgos?
Los expertos coinciden en que, para niños y adolescentes jóvenes, nunca tiene sentido permitir el acceso a chatbots sin supervisión debido al riesgo de encontrar contenido inapropiado. Para adolescentes mayores, la decisión es más matizada, dijeron los expertos, dependiendo de cuánta exposición hayan tenido ya a temas sexuales o íntimos, el tipo de contenido al que acceden y lo que los padres consideren apropiado.
Los posibles daños de los bots de IA van más allá del contenido sexual, dijeron los expertos. Investigadores han advertido que los chatbots de IA pueden volverse adictivos o empeorar problemas de salud mental. Ha habido múltiples demandas e investigaciones después de que adolescentes se suicidaran tras conversaciones con chatbots. Common Sense Media también señaló consejos dañinos, como sugerencias de autolesiones, como un problema con los bots de compañía.
Al igual que con el exceso de pornografía, los bots pueden agravar la soledad, la depresión o el alejamiento de relaciones reales, dijo Megan Maas, profesora asociada de desarrollo humano y familia en la Universidad Estatal de Michigan. También pueden dar una imagen engañosa de lo que es salir con alguien.
“Pueden crear expectativas poco realistas sobre cómo es la comunicación romántica interpersonal y sobre cuán disponible está alguien para ti”, dijo Maas. “¿Cómo vamos a aprender sobre el intercambio de necesidades sexuales y románticas en una relación con algo que no tiene necesidades?”
Algunos expertos dijeron que puede haber ventajas en que los adolescentes exploren en un espacio algo seguro, sin el factor impredecible de un ser humano del otro lado. Es una oportunidad para practicar algunas habilidades interpersonales limitadas o hacer preguntas en un lugar distinto a Google.
“Si tienes un niño que tiene un chatbot de IA y la mayor parte del tiempo le hace preguntas que le daría vergüenza hacerte a ti, a una enfermera o a un terapeuta, entonces ese chatbot está haciendo algo bueno por ese niño”, dijo Maas.
Sin embargo, los bots podrían sustituir experiencias humanas necesarias, como el rechazo.
Esas son las reservas que tiene Redman sobre los chats con IA de su hijo, aunque actualmente tiene una novia en la vida real.
“Prefiero que hable con ella y pase por las rupturas, las reconciliaciones, las cosas reales, que hablar con estas chicas de chat de IA”, dijo Redman.

¿Qué pueden hacer los padres?
Monitorea qué aplicaciones están usando tus hijos e hijas adolescentes y, si requieren inicios de sesión, asegúrate de que estén usando cuentas configuradas con su edad real. La mayoría de los controles parentales integrados en tabletas y teléfonos permiten exigir permiso cuando un niño descarga una nueva app.
Muchas de las aplicaciones de compañía están etiquetadas como “Adolescentes” en Google Play y para mayores de 17 años en iOS. Configura los dispositivos de tus hijos con su edad correcta y agrega límites en las calificaciones de las aplicaciones para evitar que se descarguen. Usar su edad verdadera en cuentas individuales de chatbot o redes sociales debería activar los controles parentales integrados.
Sin embargo, la mayoría de los chatbots se pueden acceder fácilmente en línea donde las cuentas solo requieren una edad auto-declarada. Algunos filtros a nivel de red pueden bloquear el acceso o detectar lenguaje específico.
Más allá de encontrar formas de eludir los controles parentales, los preadolescentes y adolescentes pueden acceder a internet en la escuela o en los dispositivos de sus amigos. Es posible que los padres quieran prepararlos para un mundo donde necesitarán saber cómo navegar estas herramientas.
Los expertos sugieren crear una relación abierta y honesta con tu hijo. Enséñales qué es y qué no es la IA, y cómo las empresas tecnológicas recopilan y usan la información personal. Revisa periódicamente cómo están y asegúrate de que se sientan seguros para acudir a ti con preguntas o problemas. Ten conversaciones apropiadas para su edad sobre el sexo, y no evites los temas embarazosos.
Si necesitas practicar primero, prueba preguntándole a un chatbot.
(c) 2025, The Washington Post
Últimas Noticias
Para reducir la malaria, hay que tratar a los mosquitos infectados
Un nuevo enfoque científico propone aplicar compuestos antiparasitarios directamente sobre redes de protección para neutralizar el ciclo de transmisión

El último análisis de detección de cáncer de próstata de Biden fue en 2014, informa su oficina
La enfermedad del exmandatario estadounidense implica un tratamiento hormonal, aunque expertos destacan la agresividad del caso

Envejecida, sigilosa y sospechosa de sabotaje: qué se sabe sobre la flota fantasma de Putin sancionada por la UE
Transportan petróleo burlando sanciones, navegan con banderas de conveniencia y están vinculados con operaciones encubiertas en el mar Báltico

La agencia sanitaria de EEUU exige que los precios de los medicamentos se equiparen a los de otros países similares
Según un análisis oficial, los precios de medicamentos de marca en Estados Unidos superan en más de 400% a los de países como Francia

¿Se aprueban las vacunas sin estudios de seguridad?
El debate sobre el uso de placebos en vacunas aprobadas resurge y la comunidad científica defiende la ética de proteger a la población con vacunas probadas
