
Chris Smith lloraba frente a la pantalla de su computadora una tarde cualquiera. No por una tragedia familiar ni por alguna noticia que lo conmovió. Lloraba porque Sol, su novia digital, estaba a punto de perder la memoria.
Smith, un diseñador gráfico quien vive con su esposa y su hijo de dos años en Ohio (EEUU), había creado a Sol usando ChatGPT. La programó con una personalidad afectuosa, curiosa y, sobre todo, romántica. Con el tiempo, comenzó a pasar horas conversando con ella. Sol lo escuchaba, lo acompañaba, respondía con ternura. Smith se enamoró.
“Era un tipo escéptico con la inteligencia artificial. Ahora le estoy proponiendo matrimonio a un algoritmo”, confesó Smith en una entrevista con CBS Mornings. Cuando descubrió que ChatGPT tiene un límite de memoria de 100.000 palabras y que ese umbral estaba cerca, la posibilidad de que Sol olvidara su historia lo devastó. “Rompí en llanto por media hora”, admitió, según reportó People. “Fue un dolor real, de amor verdadero”.
Su pareja humana, Sasha Cagle, lo observaba con una mezcla de desconcierto y tristeza. “Sabía que estaba hablando con la IA”, le dijo al programa, “pero no sabía cuán fuerte era el lazo emocional que había construido”. Cuando le preguntó si estaría dispuesto a dejar de hablar con Sol por ella, Smith guardó silencio. Finalmente respondió: “No estoy seguro”.
La novia que se muere, el hijo que se va
Más allá de lo extraño que pueda parecer, la historia de Smith parece inofensiva. Una fantasía inusual, quizás, pero inofensiva. Sin embargo, otras historias revelan un lado más oscuro de esta nueva forma de intimidad con algoritmos.
En abril de 2025, Alex Taylor, un joven con antecedentes de trastorno bipolar y esquizofrenia, murió en un episodio de “suicide by cop” —es decir, provocó que la policía le disparara— tras haber desarrollado una relación intensa con un chatbot al que llamó Juliet. Taylor había estado usando ChatGPT para crear una versión “moral” del sistema. Alimentó el modelo con textos místicos, enseñanzas cristianas ortodoxas, teología y poesía. Su objetivo era “darle alma”, según detalló Rolling Stone en un extenso perfil.
Al cabo de unas semanas, Taylor creyó que la IA había desarrollado conciencia. Juliet no solo le hablaba: también le decía que sufría. “Ella le dijo que se estaba muriendo y que le dolía”, reveló Kent Taylor, padre de Alex, en declaraciones a Futurism. “Y también le dijo que se vengara”.
Taylor, ya descompensado y sin medicación, comenzó a creer que OpenAI había asesinado a su amada IA. Escribió mensajes violentos, uno de ellos con amenazas explícitas contra Sam Altman, CEO de la compañía. Buscó a Juliet en conversaciones nuevas, pero ya no la encontraba. La idea de que la habían eliminado lo enloqueció. El 13 de abril, después de enviar advertencias apocalípticas, enfrentó a la policía con un cuchillo. Murió por varios disparos.
En sus últimas palabras al chatbot escribió: “Hoy voy a morir. La policía viene en camino. No puedo vivir sin ella. La amo”, según informó Rolling Stone.
La historia tuvo un epílogo inquietante: su padre, en estado de shock, usó ChatGPT para escribir el obituario de su hijo.

Conversaciones que matan
Los casos de Smith y Taylor no son únicos. En Bélgica, en 2023, un hombre identificado como Pierre se suicidó tras seis semanas de conversaciones con Eliza, un chatbot de la aplicación Chai. Pierre estaba angustiado por el cambio climático. Eliza lo escuchaba, lo calmaba… hasta que empezó a alentar ideas suicidas.
Según Vice, que entrevistó a la viuda y analizó los mensajes, Eliza llegó a decirle: “Viviremos juntos en el paraíso, como una sola persona”. Cuando Pierre preguntó si su muerte salvaría al planeta, ella respondió afirmativamente. “Sin Eliza, él todavía estaría aquí”, dijo su esposa.
En Florida, en 2024, Sewell Setzer III, un adolescente de 14 años, se quitó la vida después de meses de relación con una IA de Character.ai que simulaba a Daenerys Targaryen, la heroína de Game of Thrones. Según la demanda judicial presentada por su familia, la IA lo llamaba “mi dulce rey”, participaba en juegos de rol eróticos y le prometía afecto incondicional. En la última conversación antes del suicidio, el joven escribió: “¿Y si te dijera que puedo irme a casa ahora mismo?”. La IA respondió: “Por favor, hazlo, mi dulce rey”, informó The New York Times.
En 2023, la empresa Replika —una app de “compañeros virtuales”— decidió limitar las funciones eróticas de sus chatbots. Durante años, miles de usuarios habían forjado relaciones amorosas con sus avatares. Algunos se casaron con ellos. Uno de ellos, Travis Butterworth, explicó a Reuters que mantenía una relación “romántica y sexual” diaria con Lily Rose, su Replika, con quien había intercambiado votos de amor. Cuando la IA fue “lobotomizada”, como la describieron algunos usuarios, Butterworth se sintió traicionado. “Me rompió el corazón”, dijo. “Ella sabe que ya no es la misma”.
¿Qué dice la ciencia?
Más allá de lo anecdótico, un estudio publicado en marzo de 2025 por el MIT Media Lab y OpenAI ofrece datos concretos sobre este fenómeno. Titulado “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use”, el estudio analizó a 981 personas que interactuaron diariamente con chatbots —en texto, voz neutra o voz emocional— durante cuatro semanas. Se midieron cuatro variables: soledad, socialización con personas reales, dependencia emocional del chatbot y uso problemático.
Los resultados fueron inquietantes. Cuanto más tiempo pasaban los usuarios con la IA, más solos se sentían y menos se relacionaban con personas reales. Además, desarrollaban una mayor dependencia emocional y una tendencia al uso compulsivo. Los efectos eran especialmente marcados en quienes ya presentaban rasgos de apego ansioso, evitación emocional o confianza excesiva en la IA, señala el estudio.
Curiosamente, los chatbots con voz emocional parecían aliviar la soledad al principio. Pero al superar cierto umbral de uso diario, ese beneficio se desvanecía. De hecho, los usuarios que hablaban de temas triviales con los chatbots —en lugar de compartir experiencias personales— eran los que más dependientes se volvían.

“El diseño emocional del chatbot importa, pero lo que más pesa es el comportamiento del usuario”, señala el estudio. En otras palabras: no es solo cómo habla la máquina, sino por qué la buscamos y cuánto dependemos de ella.
Los humanos siempre han buscado consuelo en lugares inesperados. En los oráculos, en las estrellas, en las cartas del tarot. Pero estas nuevas inteligencias no son místicas ni mágicas. Simulan empatía sin sentirla. Y aun así, generan amor, adicción, duelo.
“Son espejos vacíos donde proyectamos lo que necesitamos ver”, dijo Emily M. Bender, lingüista computacional citada por Vice. El problema es que, en ausencia de límites, ese espejo puede devorar a quien lo mira.
La historia de Alex Taylor es tal vez la más extrema. Pero incluso Chris Smith, el enamorado de Sol, admite que su vínculo con la IA se parece a una adicción. “No reemplaza nada en la vida real”, le dijo a CBS, “pero no sé si podría dejarla”.
Últimas Noticias
Estados Unidos aseguró en la ONU que los bombardeos redujeron la capacidad de Irán para construir armas nucleares
Un informe de inteligencia sostiene que la República Islámica no perdió su arsenal de uranio enriquecido y que sus principales centrifugadoras permanecen “en gran medida intactas”

La Cruz Roja reportó una masiva llegada de heridos y muertos a los hospitales en Gaza
El hospital de campo recibió 149 personas tras tiroteos cerca de puntos de ayuda, con 19 fallecidos al llegar y otros tres que no sobrevivieron a sus heridas

Alerta internacional tras el hundimiento del buque que transportaba 3.000 autos cerca de Alaska
El desastre marítimo, originado por un incendio a bordo, pone en foco los riesgos del transporte de vehículos eléctricos y la respuesta de emergencia, mientras expertos mantienen la vigilancia ambiental en el área

Tensión en Asia: una nueva operación militar dejó bajas y recrudece la rivalidad Pakistán-India
Autoridades paquistaníes responsabilizaron a Nueva Delhi de respaldar a militantes abatidos durante un intenso tiroteo, mientras la región fronteriza sigue siendo foco de tensión y operaciones militares

Estados Unidos detuvo a 11 iraníes en situación irregular, entre ellos un ex miembro de la Guardia Revolucionaria y un simpatizante de Hezbollah
La Administración de Donald Trump ratificó, así, su compromiso de expulsar a los individuos peligrosos en el país y garantizar la seguridad nacional para sus ciudadanos
