ChatGPT lo llevó a sufrir bromismo—una dolencia casi olvidada. Un hombre de 60 años terminó hospitalizado tras automedicarse siguiendo consejos del chatbot; lo que parecía saltar a la modernidad, lo devolvió a una condición médica del pasado.
Un hombre de 60 años consultó a ChatGPT sobre cómo reducir la sal en su dieta. En respuesta, recibió un consejo que lo llevó a automedicarse con bromuro, una sustancia prohibida en medicinas desde hace décadas. Como resultado, desarrolló bromismo, una afección casi desconocida en los últimos cien años.
El bromismo es una intoxicación por acumulación de bromuros, compuestos que antaño se usaban como sedantes o para aliviar síntomas como jaqueca o resaca. Fue tan frecuente que se culpaba de hasta un 8 % de los ingresos psiquiátricos en su época. Sus síntomas incluyen:
Al llegar al hospital, el hombre mostraba síntomas alarmantes: fatiga, insomnio, sed excesiva, falta de coordinación, erupciones cutáneas, paranoia, y alucinaciones auditivas y visuales. Incluso intentó escapar del centro médico, lo que derivó en su retención psiquiátrica por grave discapacidad mental.
Lo más sorprendente no fue solo la enfermedad, sino su origen: una recomendación de salud gestionada por ChatGPT. Esto abre un debate sobre los límites y riesgos de basarnos en la IA para temas médicos serios. Un error de ese tipo puede tener consecuencias reales y muy peligrosas.
Fuente: PC Gamer
Juegos recomendados para el finde del 3 de octubre 2025. Descubre las mejores propuestas de…
EA comprado por 55 mil millones: las IPs de videojuegos brillan. El fondo soberano saudí…
Xbox renueva Game Pass: nuevos planes y subida de precio. Essential, Premium y Ultimate llegan…
Oblivion Remastered muestra vacío tras su copia física. Una edición que muchos llaman “código en…
Kojima y Refn: ¿Son los videojuegos el nuevo cine? En Satellites, ambos analizan pantallas, arte,…
Comprar consolas hoy es más caro y complicado que nunca. Subidas de precio, suscripciones, versiones…