Una investigación reveló que decenas de miles de conversaciones de usuarios con la inteligencia artificial ChatGPT se habían compartido públicamente en Google, exponiendo información sensible. Entre los casos detectados, algunos ejecutivos compartían datos confidenciales sin ser conscientes de ello.
Entre los hallazgos más destacados, un CEO reveló a la IA información crítica sobre acuerdos financieros, proyecciones privadas de ingresos e información sobre clientes protegidos por acuerdos de confidencialidad (NDA), especialmente de Asia. Además, criticaba públicamente a otros ejecutivos por su nombre.
Este descubrimiento forma parte de la investigación realizada por la plataforma Digital Digging.

Cómo se llevó a cabo este estudio
El estudio fue realizado por Henk Van Ess, periodista y profesor de la Universidad de Arizona, quien analizó decenas de miles de conversaciones de ChatGPT que habían sido compartidas públicamente en internet.
Para acceder a estos diálogos, no necesitó conocimientos de hacking ni herramientas complejas; simplemente utilizó Google para localizar los enlaces que los usuarios habían compartido sin darse cuenta de que se indexaban en los motores de búsqueda.
Van Ess también utilizó otra inteligencia artificial, el chatbot Claude, para generar palabras clave que ayudaran a encontrar conversaciones sensibles, como términos relacionados con información confidencial o números de seguridad social.

Gracias a esta metodología, pudo identificar diálogos que contenían datos altamente delicados, desde proyecciones financieras y estrategias de negocios hasta planes potencialmente ilegales o comprometedores.
El origen del problema no fue un fallo de seguridad, sino la función 'Compartir conversación' de ChatGPT, que permitía que miles de usuarios crearan enlaces públicos pensando que eran privados.
OpenAI posteriormente deshabilitó esta función y trató de desindexar los enlaces, aunque Van Ess pudo acceder a muchas conversaciones a través de Archive.org, la plataforma que almacena contenidos de internet de manera permanente.

El director de Wayback Machine, Mark Graham, declaró en su momento:
“Puedo asegurar que no hemos recibido ni procesado ninguna solicitud masiva para excluir las URL chatgpt.com/share. Si OpenAI, propietario de los derechos sobre el material del dominio chatgpt.com, solicitara la exclusión de las URL con ese patrón, probablemente atenderíamos la petición. Sin embargo, hasta ahora, no han hecho ninguna solicitud”.
Qué tipo de información se encontró
La investigación de Henk Van Ess reveló que muchas conversaciones de ChatGPT compartidas públicamente contenían información altamente sensible.
Entre los datos expuestos se encontraron resultados financieros de empresas, incluidos acuerdos próximos y proyecciones de ingresos antes de hacerse públicos, lo que representa un riesgo para compañías cotizadas.

También se hallaron informaciones legales y conflictos internos, como planes de negocios que afectaban a comunidades vulnerables, por ejemplo, un abogado de una multinacional detallando cómo desplazar a comunidades indígenas para construir una planta hidroeléctrica.
Además, se descubrieron críticas personales a otros ejecutivos, identificando a individuos por su nombre.
Incluso se encontraron intentos de generar contenido sexualmente explícito con menores, evidenciando tanto vulnerabilidades del sistema como intenciones peligrosas de algunos usuarios.
Van Ess destacó la cantidad de información personal que los usuarios compartían, desde números de seguridad social hasta detalles íntimos de su vida cotidiana, como terapias, problemas familiares o financieros.
Sam Altman sobre compartir información privada con ChatGPT
Sam Altman, director ejecutivo de OpenAI, advirtió que las conversaciones con ChatGPT no siempre serán completamente privadas.
Explicó que actualmente no existen mecanismos legales que protejan la información personal confidencial compartida con la IA si una demanda obliga a OpenAI a revelarla.
Altman hizo estas declaraciones durante una entrevista con Theo Von para su podcast: “La gente habla de los aspectos más personales de su vida con ChatGPT. Muchos, especialmente los jóvenes, lo usan como terapeuta o coach de vida”, señaló.
Actualmente, cuando alguien habla con un terapeuta, abogado o médico, existen protecciones legales que garantizan la confidencialidad. “Todavía no hemos resuelto cómo aplicar esos privilegios en el caso de ChatGPT”, dijo Altman.
Últimas Noticias
¿Tienes una PC gamer?: cómo lograr el rendimiento óptimo entre tu computadora y monitor
Lograr que la experiencia de juego alcance el nivel profesional depende de diversas prácticas de optimización, más allá del simple armado de una PC potente

Estudiantes en EE. UU. reinventan Google Calendar para organizar mucho más que tareas
Los jóvenes lo utilizan para estructurar desde sus rutinas académicas hasta encuentros sociales y aspectos personales

IBM y AMD se alían para impulsar computación cuántica y supercomputación
El acuerdo pretende acelerar el progreso en algoritmos de vanguardia y apunta a superar los desafíos actuales de la computación tradicional

Anthropic llega a acuerdo en demanda por uso de libros para entrenar IA
Las demandas iniciales recibieron un importante revés en junio de 2025, cuando el juez William Alsup del tribunal distrital de California falló, en su mayoría, a favor de la empresa de IA
Apple TV+ aumenta sus precios en EE. UU.: a cuánto asciende el nuevo valor
Pese al ajuste mensual, el precio de la suscripción anual al servicio de streaming se mantiene sin cambios, en 99 dólares
