De ChatGPT al hospital: Hombre se intoxica tras sustituir la sal por consejo de la IA

La intoxicación del hombre puso en evidencia los riesgos de aplicar consejos de inteligencia artificial en decisiones de salud sin supervisión médica
Un hombre de 60 años desarrolló graves problemas de salud tras consultar ChatGPT en busca de información sobre su dieta. La conversación con la inteligencia artificial lo llevó a tomar decisiones que terminaro provocando intoxicación por bromuro, una condición conocida como bromismo, poco frecuente hoy en día pero potencialmente peligrosa.
Búsqueda en ChatGPT y dieta peligrosa
Según el reporte publicado en Annals of Internal Medicine: Clinical Cases (5 de agosto de 2025), el paciente, con formación en nutrición, buscó alternativas para reducir el consumo de cloruro de sodio en su dieta.
Inspirado por información obtenida de ChatGPT, decidió reemplazar la sal de mesa por bromuro de sodio adquirido por internet, sin recibir advertencias sobre los riesgos de esta sustancia. Durante tres meses llevó a cabo este experimento personal.
“Durante tres meses, reemplazó el cloruro de sodio por bromuro de sodio adquirido por internet, tras consultar con ChatGPT, donde leyó que el cloruro puede sustituirse por bromuro, aunque probablemente con otros fines, como la limpieza”, informan los especialistas en el artículo del caso.
Al cabo de este tiempo, comenzó a presentar paranoia, alucinaciones auditivas y visuales, fatiga, insomnio, polidipsia, acné facial y pequeños angiomas. Fue ingresado en un hospital, donde estudios de laboratorio mostraron hipercloremia falsa, anión gap negativo y niveles muy elevados de bromuro en sangre (1700 mg/L, cuando lo normal es <7.3 mg/L). Por su seguridad, se le administró risperidona para controlar la psicosis y recibió hidratación intravenosa junto con corrección de electrolitos.El diagnóstico final fue bromismo, intoxicación por bromuro, que se confirmó mediante espectrometría de plasma. Tras suspender la ingesta de bromuro y aplicar tratamiento médico, sus síntomas se resolvieron completamente. Este caso pone de relieve los riesgos de aplicar información de inteligencia artificial en temas de salud sin supervisión profesional, así como la necesidad de que los médicos indaguen las fuentes de información que consultan sus pacientes.
Con información de Publimetro