Hombre pidió consejo a una IA para un experimento personal y acabó en el hospital

La intoxicación ocurrió luego de que reemplazara la sal común en su dieta con bromuro de sodio, decisión que tomó tras recibir información errónea de ChatGPT

Guardar
El hombre explicó que había
El hombre explicó que había eliminado la sal de su dieta por temor a sus supuestos efectos negativos. (Composición Infobae: welivesecurity.com / es.made-in-china.com)

Un hombre de 60 años en Estados Unidos fue hospitalizado tras desarrollar síntomas graves de intoxicación por bromuro de sodio, una sustancia química no aprobada para consumo humano. El paciente presentó alucinaciones, paranoia extrema y confusión mental, según un caso documentado en la revista Annals of Internal Medicine.

La intoxicación ocurrió luego de que reemplazara la sal común (cloruro de sodio) en su dieta con bromuro de sodio, decisión que tomó tras recibir información errónea de un chatbot de inteligencia artificial.

Un experimento personal con graves consecuencias

Al llegar a la sala de emergencias de un hospital, el paciente aseguró que su vecino intentaba envenenarlo. Aunque sus signos vitales eran normales, los análisis de laboratorio detectaron alteraciones en su equilibrio químico, además de signos de desnutrición.

En la evaluación posterior, el hombre explicó que había eliminado el cloruro de sodio de su dieta por temor a sus supuestos efectos negativos, y lo reemplazó por bromuro de sodio, adquirido por internet. Esta decisión estuvo motivada por la respuesta de un chatbot —ChatGPT—, que le indicó que el bromuro podía usarse como sustituto, sin aclarar que tal uso es válido solo en contextos industriales o químicos, nunca alimenticios.

Bromuro de sodio, una sustancia
Bromuro de sodio, una sustancia química no aprobada para consumo humano. (Composición Infobae: es.made-in-china.com)

Con estudios universitarios en nutrición, el paciente llevó a cabo un experimento durante tres meses, consumiendo bromuro de sodio en lugar de sal. Como resultado, acumuló niveles tóxicos de la sustancia en su organismo.

Su estado se agravó durante la hospitalización, llegando a presentar alucinaciones auditivas y visuales, intentos de fuga y un cuadro psiquiátrico que requirió tratamiento con risperidona. También recibió líquidos intravenosos y suplementos vitamínicos para corregir deficiencias de vitamina C, B12 y folato.

Tras tres semanas, el paciente mostró una notable mejoría física y mental. Los análisis confirmaron que los niveles de bromuro en sangre estaban muy por encima de lo normal. Además, recordó haber sufrido síntomas previos compatibles con el llamado bromismo, como fatiga, insomnio, sed excesiva y brotes de acné.

Inteligencia artificial y salud

El caso ha reavivado el debate sobre el uso de la inteligencia artificial en la toma de decisiones médicas. Aunque ChatGPT mostró algunas advertencias en pruebas similares, no identificó de manera clara el riesgo del bromuro de sodio ni pidió detalles sobre el contexto de uso, algo que un profesional de la salud sí habría hecho.

Conviene emplear ChatGPT como un
Conviene emplear ChatGPT como un apoyo para obtener información o ideas, pero no como única fuente para tomar decisiones importantes o delicadas. (Reuters)

Según el estudio: “Es importante considerar que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir críticamente los resultados y hasta alimentar la propagación de información errónea”.

El caso del paciente de 60 años no solo ilustra los peligros del autodiagnóstico y la automedicación, sino también los riesgos de interpretar respuestas de la IA como equivalentes al consejo de un médico. Es importante señalar que este tipo de herramientas deben usarse como complemento y no como sustituto de la atención profesional.

Cómo utilizar ChatGPT de manera segura y responsable

El uso responsable de ChatGPT implica interactuar con la herramienta respetando la privacidad de las personas y evitando compartir datos personales sensibles. Es importante recordar que las consultas deben formularse de manera clara y precisa, sin incluir información confidencial que pueda comprometer la seguridad.

La utilización ética de la
La utilización ética de la inteligencia artificial requiere también respetar las normas legales y comunitarias. EFE/Ballesteros

Además, conviene emplear ChatGPT como un apoyo para obtener información o ideas, pero no como única fuente para tomar decisiones importantes o delicadas. Verificar los datos obtenidos a través de fuentes confiables ayuda a evitar la difusión de información incorrecta.

La utilización ética de la inteligencia artificial requiere también respetar las normas legales y comunitarias, así como promover un uso crítico y consciente de la tecnología en contextos personales, académicos o laborales.