ChatGPT lo llevó a sufrir bromismo—una dolencia casi olvidada. Un hombre de 60 años terminó hospitalizado tras automedicarse siguiendo consejos del chatbot; lo que parecía saltar a la modernidad, lo devolvió a una condición médica del pasado.
Un hombre de 60 años consultó a ChatGPT sobre cómo reducir la sal en su dieta. En respuesta, recibió un consejo que lo llevó a automedicarse con bromuro, una sustancia prohibida en medicinas desde hace décadas. Como resultado, desarrolló bromismo, una afección casi desconocida en los últimos cien años.
El bromismo es una intoxicación por acumulación de bromuros, compuestos que antaño se usaban como sedantes o para aliviar síntomas como jaqueca o resaca. Fue tan frecuente que se culpaba de hasta un 8 % de los ingresos psiquiátricos en su época. Sus síntomas incluyen:
Al llegar al hospital, el hombre mostraba síntomas alarmantes: fatiga, insomnio, sed excesiva, falta de coordinación, erupciones cutáneas, paranoia, y alucinaciones auditivas y visuales. Incluso intentó escapar del centro médico, lo que derivó en su retención psiquiátrica por grave discapacidad mental.
Lo más sorprendente no fue solo la enfermedad, sino su origen: una recomendación de salud gestionada por ChatGPT. Esto abre un debate sobre los límites y riesgos de basarnos en la IA para temas médicos serios. Un error de ese tipo puede tener consecuencias reales y muy peligrosas.
Fuente: PC Gamer
Apple anuncia dos nuevas apps: Apple Business para empresas, disponible el 14 de abril, y…
La FCC prohibe la venta de routers fabricados fuera de EE.UU. por riesgos de seguridad…
Samsung anuncia que Quick Share en los Galaxy S26 será compatible con Apple AirDrop, permitiendo…
Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…
NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…
NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…