
ChatGPT lo llevó a sufrir bromismo—una dolencia casi olvidada. Un hombre de 60 años terminó hospitalizado tras automedicarse siguiendo consejos del chatbot; lo que parecía saltar a la modernidad, lo devolvió a una condición médica del pasado.
Historia real… y bastante alarmante
Un hombre de 60 años consultó a ChatGPT sobre cómo reducir la sal en su dieta. En respuesta, recibió un consejo que lo llevó a automedicarse con bromuro, una sustancia prohibida en medicinas desde hace décadas. Como resultado, desarrolló bromismo, una afección casi desconocida en los últimos cien años.
¿Qué es el bromismo? ¿Por qué se extinguió?
El bromismo es una intoxicación por acumulación de bromuros, compuestos que antaño se usaban como sedantes o para aliviar síntomas como jaqueca o resaca. Fue tan frecuente que se culpaba de hasta un 8 % de los ingresos psiquiátricos en su época. Sus síntomas incluyen:
- Dermatitis o erupciones graves
- Alucinaciones (visuales y auditivas)
- Psicosis o paranoia extrema
¿Qué ocurrió con el paciente?
Al llegar al hospital, el hombre mostraba síntomas alarmantes: fatiga, insomnio, sed excesiva, falta de coordinación, erupciones cutáneas, paranoia, y alucinaciones auditivas y visuales. Incluso intentó escapar del centro médico, lo que derivó en su retención psiquiátrica por grave discapacidad mental.
¿La causa? Un consejo equivocado de IA
Lo más sorprendente no fue solo la enfermedad, sino su origen: una recomendación de salud gestionada por ChatGPT. Esto abre un debate sobre los límites y riesgos de basarnos en la IA para temas médicos serios. Un error de ese tipo puede tener consecuencias reales y muy peligrosas.
Fuente: PC Gamer