ChatGPT lo llevó a sufrir bromismo—una dolencia casi olvidada. Un hombre de 60 años terminó hospitalizado tras automedicarse siguiendo consejos del chatbot; lo que parecía saltar a la modernidad, lo devolvió a una condición médica del pasado.
Un hombre de 60 años consultó a ChatGPT sobre cómo reducir la sal en su dieta. En respuesta, recibió un consejo que lo llevó a automedicarse con bromuro, una sustancia prohibida en medicinas desde hace décadas. Como resultado, desarrolló bromismo, una afección casi desconocida en los últimos cien años.
El bromismo es una intoxicación por acumulación de bromuros, compuestos que antaño se usaban como sedantes o para aliviar síntomas como jaqueca o resaca. Fue tan frecuente que se culpaba de hasta un 8 % de los ingresos psiquiátricos en su época. Sus síntomas incluyen:
Al llegar al hospital, el hombre mostraba síntomas alarmantes: fatiga, insomnio, sed excesiva, falta de coordinación, erupciones cutáneas, paranoia, y alucinaciones auditivas y visuales. Incluso intentó escapar del centro médico, lo que derivó en su retención psiquiátrica por grave discapacidad mental.
Lo más sorprendente no fue solo la enfermedad, sino su origen: una recomendación de salud gestionada por ChatGPT. Esto abre un debate sobre los límites y riesgos de basarnos en la IA para temas médicos serios. Un error de ese tipo puede tener consecuencias reales y muy peligrosas.
Fuente: PC Gamer
NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…
NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…
Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…
Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…
NVIDIA confirma que DLSS 4.5 llega el 31 de marzo con modo x6 y hasta…
Juegos recomendados para el finde del 3 de octubre 2025. Descubre las mejores propuestas de…