Hombre pidió consejo a una IA para un experimento personal y acabó en el hospital
La intoxicación ocurrió luego de que reemplazara la sal común en su dieta con bromuro de sodio, decisión que tomó tras recibir información errónea de ChatGPT

Un consejo de IA casi le cuesta la vida: el caso del hombre intoxicado por seguir una recomendación de ChatGPT
Un hombre de Washington sufrió graves daños de salud por seguir una sugerencia errónea de ChatGPT, lo que pone en debate la fiabilidad de los chatbots en temas médicos y el papel de la supervisión profesional
