10/08/2025

UN HOMBRE LE PIDIÓ CONSEJOS A CHATGPT, LOS SIGUIÓ Y TERMINÓ HOSPITALIZADO

Un hombre siguió recomendaciones de salud por ChatGPT terminó hospitalizado, evidenciando los peligros de confiar en inteligencia artificial.

El paciente sufrió una intoxicación severa tras modificar su dieta siguiendo indicaciones de ChatGPT. Este caso, documentado en Annals of Internal Medicine: Clinical Cases, pone en evidencia los peligros de depender de la inteligencia artificial para asuntos de salud sin la guía de un especialista.

Preocupado por los supuestos efectos nocivos del cloruro de sodio, la sal común, decidió eliminarla de su alimentación. En lugar de acudir a un especialista, consultó a ChatGPT para buscar un reemplazo, lo que derivó en un experimento peligroso con consecuencias graves para su salud.

Preocupado por los supuestos efectos negativos de la sal común (cloruro de sodio), un hombre decidió eliminarla de su dieta y, en lugar de consultar a un especialista, pidió consejo a ChatGPT para encontrar un reemplazo. La IA le sugirió bromuro de sodio, sustancia que el paciente adquirió por internet, sin saber que podía ser tóxica para el consumo humano.

La ingestión de bromuro provoca bromismo, una intoxicación que causó numerosos problemas psiquiátricos en el siglo XX, hasta que la FDA prohibió su uso en medicamentos entre 1975 y 1989. Sin embargo, su consumo volvió a aumentar debido a la venta de suplementos con bromuro en internet.

El paciente ingresó a emergencias con síntomas de paranoia y delirios, negando inicialmente la ingesta de suplementos. Durante su hospitalización, desarrolló alucinaciones y problemas dermatológicos. Un análisis confirmó altos niveles de bromuro en su cuerpo. Tras suspender el bromuro y recibir tratamiento intravenoso, el hombre mejoró notablemente y fue dado de alta sin necesidad de medicación psiquiátrica.