Categories: NoticiaTecnología

Google Gemini comete error médico por confundir una palabra clave

Google Gemini comete error médico por confundir una palabra clave. Un reciente fallo de la IA de Google en el ámbito clínico ha encendido las alarmas sobre los riesgos de depender de modelos generativos para temas de salud crítica.

El fallo que reveló una debilidad crítica

Investigadores descubrieron que Gemini, el modelo de lenguaje de Google especializado en medicina, cometió un error tras malinterpretar una palabra crucial en un paper médico. El sistema confundió «basilar artery» (arteria basilar) con «basilar ganglia» (un término inexistente) —una mezcla entre «basal ganglia» y «basilar artery»— generando así una alucinación médica con posibles consecuencias graves si se aplicara en contextos clínicos reales.

Este tipo de error es conocido como hallucination, y se refiere a situaciones donde un modelo de IA genera contenido ficticio con tono confiado, dando apariencia de veracidad a algo incorrecto.

¿Qué ocurrió exactamente con Google Gemini ?

El caso se documentó cuando un artículo académico mal escrito contenía ese error tipográfico, y Gemini reprodujo y amplificó el término equivocado sin cuestionarlo. Aunque el fallo se detectó gracias a revisiones manuales, plantea un problema serio: los modelos de IA como Med-Gemini pueden ser vulnerables a errores introducidos por terceros si no se filtran adecuadamente las fuentes de entrenamiento.

Google Gemini una IA entrenada con papers de baja calidad

Según The Verge, parte del problema radica en que algunos papers utilizados en el entrenamiento de Gemini contenían errores gramaticales o médicos. El modelo fue alimentado con datos médicos no verificados o de baja calidad, una práctica que ya ha sido criticada por expertos en IA biomédica.

Aunque Google ha afirmado que Med-Gemini no se utiliza de forma directa en hospitales o para decisiones clínicas reales, el incidente reabre el debate sobre hasta qué punto se puede confiar en IA generativa en áreas sensibles como la salud.

Conclusión

Este error de Gemini evidencia que, aunque las IAs médicas han avanzado de forma notable, siguen siendo herramientas susceptibles de alucinaciones graves si no se controlan rigurosamente las fuentes de información. La confianza en estas herramientas debe estar siempre acompañada de un juicio humano crítico y protocolos de verificación científica.

Fuente: Theverge


Michael Tavarez Perez

Escribo artículos en la web. Tras pasar por varias empresas como técnico de telecomunicaciones, decidí probar con el diseño web. Me gusta a jugar a videojuegos, montar PCs y trastear con tecnología en general.

Recent Posts

IBM Power11: más velocidad, 2.5D y aceleración de IA

IBM presenta el Power11 en Hot Chips 2025: CPU de 16 núcleos a 4,3 GHz,…

20 horas ago

AMD culpa a fabricantes por los sobrecalentamientos en AM5

AMD culpa a fabricantes de placas por el escándalo de sockets AM5 quemados. ASRock en…

21 horas ago

Intel advierte que la entrada de Trump puede salir cara

Intel advierte que la entrada del gobierno de EE.UU. con un 9,9 % de acciones…

23 horas ago

Huawei trabaja en SSDs de IA que podrían reemplazar la HBM

Huawei desarrolla supuestos “AI SSDs” que podrían sustituir la HBM en IA, ofreciendo más capacidad…

1 día ago

Paquete HD transforma entornos de Baldur’s Gate 3

Paquete HD transforma todos los entornos de Baldur’s Gate 3. Texturas ambientales mejoradas con IA,…

1 día ago

Black Ops 7 vs Battlefield 6: ¿diversidad-nostalgia?

Black Ops 7 vs Battlefield 6: ¿diversidad o nostalgia? Black Ops 7 apuesta por ser…

1 día ago