Miles de chats de ChatGPT expuestos en Google: ejecutivos compartieron información confidencial de sus empresas

Un CEO compartió con la IA datos clave sobre acuerdos financieros, estimaciones privadas de ingresos e información de clientes bajo acuerdos de confidencialidad

Guardar
Este hallazgo corresponde a la
Este hallazgo corresponde a la investigación llevada a cabo por la plataforma Digital Digging. REUTERS/Dado Ruvic/Illustration//File Photo

Una investigación reveló que decenas de miles de conversaciones de usuarios con la inteligencia artificial ChatGPT se habían compartido públicamente en Google, exponiendo información sensible. Entre los casos detectados, algunos ejecutivos compartían datos confidenciales sin ser conscientes de ello.

Entre los hallazgos más destacados, un CEO reveló a la IA información crítica sobre acuerdos financieros, proyecciones privadas de ingresos e información sobre clientes protegidos por acuerdos de confidencialidad (NDA), especialmente de Asia. Además, criticaba públicamente a otros ejecutivos por su nombre.

Este descubrimiento forma parte de la investigación realizada por la plataforma Digital Digging.

Para consultar estos diálogos, no
Para consultar estos diálogos, no requirió habilidades de hacking ni herramientas sofisticadas; solo utilizó Google para encontrar los enlaces. (Imagen Ilustrativa Infobae)

Cómo se llevó a cabo este estudio

El estudio fue realizado por Henk Van Ess, periodista y profesor de la Universidad de Arizona, quien analizó decenas de miles de conversaciones de ChatGPT que habían sido compartidas públicamente en internet.

Para acceder a estos diálogos, no necesitó conocimientos de hacking ni herramientas complejas; simplemente utilizó Google para localizar los enlaces que los usuarios habían compartido sin darse cuenta de que se indexaban en los motores de búsqueda.

Van Ess también utilizó otra inteligencia artificial, el chatbot Claude, para generar palabras clave que ayudaran a encontrar conversaciones sensibles, como términos relacionados con información confidencial o números de seguridad social.

Las conversaciones incluían información de
Las conversaciones incluían información de directivos de empresas. (Imagen Ilustrativa Infobae)

Gracias a esta metodología, pudo identificar diálogos que contenían datos altamente delicados, desde proyecciones financieras y estrategias de negocios hasta planes potencialmente ilegales o comprometedores.

El origen del problema no fue un fallo de seguridad, sino la función 'Compartir conversación' de ChatGPT, que permitía que miles de usuarios crearan enlaces públicos pensando que eran privados.

OpenAI posteriormente deshabilitó esta función y trató de desindexar los enlaces, aunque Van Ess pudo acceder a muchas conversaciones a través de Archive.org, la plataforma que almacena contenidos de internet de manera permanente.

OpenAI desactivó después esta función
OpenAI desactivó después esta función e intentó eliminar los enlaces de los buscadores, pero Van Ess logró acceder a numerosas conversaciones mediante Archive.org. (imagen ilustrativa Infobae)

El director de Wayback Machine, Mark Graham, declaró en su momento:

“Puedo asegurar que no hemos recibido ni procesado ninguna solicitud masiva para excluir las URL chatgpt.com/share. Si OpenAI, propietario de los derechos sobre el material del dominio chatgpt.com, solicitara la exclusión de las URL con ese patrón, probablemente atenderíamos la petición. Sin embargo, hasta ahora, no han hecho ninguna solicitud”.

Qué tipo de información se encontró

La investigación de Henk Van Ess reveló que muchas conversaciones de ChatGPT compartidas públicamente contenían información altamente sensible.

Entre los datos expuestos se encontraron resultados financieros de empresas, incluidos acuerdos próximos y proyecciones de ingresos antes de hacerse públicos, lo que representa un riesgo para compañías cotizadas.

En las conversaciones filtradas incluso
En las conversaciones filtradas incluso se encontró críticas a otras personas con nombres propios. (Imagen Ilustrativa Infobae)

También se hallaron informaciones legales y conflictos internos, como planes de negocios que afectaban a comunidades vulnerables, por ejemplo, un abogado de una multinacional detallando cómo desplazar a comunidades indígenas para construir una planta hidroeléctrica.

Además, se descubrieron críticas personales a otros ejecutivos, identificando a individuos por su nombre.

Incluso se encontraron intentos de generar contenido sexualmente explícito con menores, evidenciando tanto vulnerabilidades del sistema como intenciones peligrosas de algunos usuarios.

Van Ess destacó la cantidad de información personal que los usuarios compartían, desde números de seguridad social hasta detalles íntimos de su vida cotidiana, como terapias, problemas familiares o financieros.

Sam Altman, CEO de OpenAI,
Sam Altman, CEO de OpenAI, señaló que las charlas con ChatGPT no garantizan total privacidad. REUTERS/Kim Kyung-Hoon/File Photo

Sam Altman sobre compartir información privada con ChatGPT

Sam Altman, director ejecutivo de OpenAI, advirtió que las conversaciones con ChatGPT no siempre serán completamente privadas.

Explicó que actualmente no existen mecanismos legales que protejan la información personal confidencial compartida con la IA si una demanda obliga a OpenAI a revelarla.

Altman hizo estas declaraciones durante una entrevista con Theo Von para su podcast: “La gente habla de los aspectos más personales de su vida con ChatGPT. Muchos, especialmente los jóvenes, lo usan como terapeuta o coach de vida”, señaló.

Actualmente, cuando alguien habla con un terapeuta, abogado o médico, existen protecciones legales que garantizan la confidencialidad. “Todavía no hemos resuelto cómo aplicar esos privilegios en el caso de ChatGPT”, dijo Altman.