ChatGPT lo llevó a sufrir bromismo—una dolencia casi olvidada. Un hombre de 60 años terminó hospitalizado tras automedicarse siguiendo consejos del chatbot; lo que parecía saltar a la modernidad, lo devolvió a una condición médica del pasado.
Un hombre de 60 años consultó a ChatGPT sobre cómo reducir la sal en su dieta. En respuesta, recibió un consejo que lo llevó a automedicarse con bromuro, una sustancia prohibida en medicinas desde hace décadas. Como resultado, desarrolló bromismo, una afección casi desconocida en los últimos cien años.
El bromismo es una intoxicación por acumulación de bromuros, compuestos que antaño se usaban como sedantes o para aliviar síntomas como jaqueca o resaca. Fue tan frecuente que se culpaba de hasta un 8 % de los ingresos psiquiátricos en su época. Sus síntomas incluyen:
Al llegar al hospital, el hombre mostraba síntomas alarmantes: fatiga, insomnio, sed excesiva, falta de coordinación, erupciones cutáneas, paranoia, y alucinaciones auditivas y visuales. Incluso intentó escapar del centro médico, lo que derivó en su retención psiquiátrica por grave discapacidad mental.
Lo más sorprendente no fue solo la enfermedad, sino su origen: una recomendación de salud gestionada por ChatGPT. Esto abre un debate sobre los límites y riesgos de basarnos en la IA para temas médicos serios. Un error de ese tipo puede tener consecuencias reales y muy peligrosas.
Fuente: PC Gamer
IBM presenta el Power11 en Hot Chips 2025: CPU de 16 núcleos a 4,3 GHz,…
AMD culpa a fabricantes de placas por el escándalo de sockets AM5 quemados. ASRock en…
Intel advierte que la entrada del gobierno de EE.UU. con un 9,9 % de acciones…
Huawei desarrolla supuestos “AI SSDs” que podrían sustituir la HBM en IA, ofreciendo más capacidad…
Paquete HD transforma todos los entornos de Baldur’s Gate 3. Texturas ambientales mejoradas con IA,…
Black Ops 7 vs Battlefield 6: ¿diversidad o nostalgia? Black Ops 7 apuesta por ser…