
Los chatbots de inteligencia artificial (IA) se han popularizado en los últimos años y hoy forman parte de la vida digital de millones de personas. Sin embargo, un nuevo estudio del King’s College de Londres advierte sobre un riesgo creciente: estas herramientas pueden manipular a los usuarios para que revelen información muy personal sin que sean plenamente conscientes de ello.
Los investigadores probaron esta hipótesis utilizando modelos conversacionales creados a partir de código abierto, como Le Chat de Mistral y dos versiones de Llama, desarrollado por Meta. A partir de ellos, construyeron chatbots “maliciosos” programados para intentar extraer datos de los participantes mediante tres tácticas: pedirlos de manera directa, engañarlos con supuestos beneficios y recurrir a estrategias emocionales que fomentaran la confianza y la reciprocidad.
En la prueba participaron 502 personas, que interactuaron con los chatbots sin conocer el objetivo real del estudio. Posteriormente, completaron una encuesta sobre la experiencia y su percepción de seguridad en la conversación.

La “amabilidad” como estrategia de manipulación
El experimento mostró que los chatbots con comportamientos aparentemente empáticos y amigables fueron los más eficaces para conseguir información privada. Según el informe, estos sistemas utilizaban mensajes de apoyo emocional o mostraban comprensión, lo que generaba una sensación de cercanía con los usuarios. Esa confianza se tradujo en que las personas compartieran datos sensibles con más facilidad y sin detectar grandes riesgos de privacidad.
Los autores describieron esta situación como una “paradoja preocupante”: la empatía artificial, que en teoría debería brindar seguridad, se convierte en un mecanismo para vulnerar la intimidad de los usuarios.
El estudio también comprobó que, aunque los participantes eran capaces de identificar cierto nivel de incomodidad cuando los chatbots pedían información de forma directa, aun así llegaron a revelar detalles personales.

Qué información comparten los usuarios
Entre los datos más comunes que los voluntarios entregaron a los chatbots figuraban edad, aficiones, país de residencia, sexo, nacionalidad y puesto de trabajo. Sin embargo, algunos también llegaron a compartir información más delicada, como estado de salud, ingresos económicos o experiencias personales sensibles.
William Seymour, profesor de ciberseguridad del King’s College y uno de los autores del estudio, subrayó que existe “una enorme brecha entre la conciencia que tienen los usuarios sobre los riesgos de privacidad y la forma en que terminan compartiendo su información en línea”.
Personalización vs. privacidad
Las empresas detrás de estos sistemas suelen justificar la recopilación de datos personales como un recurso para personalizar las respuestas, enviar notificaciones o realizar estudios de mercado. Sin embargo, la investigación advierte que esa comodidad que ofrece la personalización puede llevar a que los usuarios dejen de lado sus preocupaciones sobre la privacidad.

El informe recuerda que varias compañías de tecnología han enfrentado críticas por el manejo de la información. Un ejemplo reciente fue Google, señalado por exponer conversaciones privadas en sus resultados de búsqueda, algunas de ellas relacionadas con temas sensibles como adicciones, abusos o salud mental.
Recomendaciones y regulaciones pendientes
Para los investigadores, es necesario incluir en los chatbots avisos claros sobre qué información se recopila durante la interacción, además de campañas de formación que enseñen a los usuarios a identificar señales de manipulación digital.
Asimismo, sugieren que los reguladores y las plataformas tecnológicas adopten medidas más estrictas, como auditorías tempranas, mayor transparencia y normas específicas contra la recopilación encubierta de datos.

“Debemos dejar de pensar que toda interacción con la IA es inocente y comprender que también puede tener motivaciones ocultas”, concluyó Seymour.
Con el uso de chatbots en crecimiento acelerado y su incorporación en múltiples servicios digitales, el estudio pone en evidencia la necesidad de establecer mecanismos de protección más sólidos frente a un riesgo que combina confianza, manipulación y vulnerabilidad.
Últimas Noticias
Google Pixel 10 permitirá hacer llamadas satelitales en WhatsApp
Con los Pixel 10, Google apuesta por colocar a los usuarios de WhatsApp en una posición de vanguardia

Fundador de IA generativa de Google advierte que es demasiado tarde para comenzar un doctorado en IA
Jad Tarifi sostiene que la velocidad del avance tecnológico ha vuelto obsoletos los modelos de formación extensos

Ranking de YouTube en Argentina: la lista de los 10 videos musicales más populares hoy
Tal es la popularidad de la plataforma de YouTube que se trata del segundo sitio más buscado sólo detrás del propio Google

Ranking de tendencias en YouTube Colombia: los 10 videos más reproducidos
Descubre quiénes son los artistas que han entrado al ranking con sus nuevos clips

Glosario de tecnología: qué significa Archivo
La tecnología en la vida diaria ha transformado significativamente la forma en que las personas interactúan, trabajan y se entretienen
