Categories: NoticiaTecnología

Google Gemini comete error médico por confundir una palabra clave

Google Gemini comete error médico por confundir una palabra clave. Un reciente fallo de la IA de Google en el ámbito clínico ha encendido las alarmas sobre los riesgos de depender de modelos generativos para temas de salud crítica.

El fallo que reveló una debilidad crítica

Investigadores descubrieron que Gemini, el modelo de lenguaje de Google especializado en medicina, cometió un error tras malinterpretar una palabra crucial en un paper médico. El sistema confundió «basilar artery» (arteria basilar) con «basilar ganglia» (un término inexistente) —una mezcla entre «basal ganglia» y «basilar artery»— generando así una alucinación médica con posibles consecuencias graves si se aplicara en contextos clínicos reales.

Este tipo de error es conocido como hallucination, y se refiere a situaciones donde un modelo de IA genera contenido ficticio con tono confiado, dando apariencia de veracidad a algo incorrecto.

¿Qué ocurrió exactamente con Google Gemini ?

El caso se documentó cuando un artículo académico mal escrito contenía ese error tipográfico, y Gemini reprodujo y amplificó el término equivocado sin cuestionarlo. Aunque el fallo se detectó gracias a revisiones manuales, plantea un problema serio: los modelos de IA como Med-Gemini pueden ser vulnerables a errores introducidos por terceros si no se filtran adecuadamente las fuentes de entrenamiento.

Google Gemini una IA entrenada con papers de baja calidad

Según The Verge, parte del problema radica en que algunos papers utilizados en el entrenamiento de Gemini contenían errores gramaticales o médicos. El modelo fue alimentado con datos médicos no verificados o de baja calidad, una práctica que ya ha sido criticada por expertos en IA biomédica.

Aunque Google ha afirmado que Med-Gemini no se utiliza de forma directa en hospitales o para decisiones clínicas reales, el incidente reabre el debate sobre hasta qué punto se puede confiar en IA generativa en áreas sensibles como la salud.

Conclusión

Este error de Gemini evidencia que, aunque las IAs médicas han avanzado de forma notable, siguen siendo herramientas susceptibles de alucinaciones graves si no se controlan rigurosamente las fuentes de información. La confianza en estas herramientas debe estar siempre acompañada de un juicio humano crítico y protocolos de verificación científica.

Fuente: Theverge


Michael Tavarez Perez

Escribo artículos en la web. Tras pasar por varias empresas como técnico de telecomunicaciones, decidí probar con el diseño web. Me gusta a jugar a videojuegos, montar PCs y trastear con tecnología en general.

Recent Posts

Apple lanzará dos apps nuevas para iPhone: Apple Business llega el 14 de abril y Siri se transforma en chatbot de IA

Apple anuncia dos nuevas apps: Apple Business para empresas, disponible el 14 de abril, y…

1 mes ago

EE.UU. prohíbe la venta de routers fabricados fuera del país: La FCC declara los equipos extranjeros como riesgo de seguridad nacional

La FCC prohibe la venta de routers fabricados fuera de EE.UU. por riesgos de seguridad…

1 mes ago

Samsung Galaxy S26 ahora es compatible con AirDrop: Quick Share rompe la barrera entre Android e iOS

Samsung anuncia que Quick Share en los Galaxy S26 será compatible con Apple AirDrop, permitiendo…

1 mes ago

SteamOS 3.8.0 ya disponible: Perfiles de rendimiento por juego, soporte para ROG Ally y KDE Plasma 6.2.5

Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…

1 mes ago

NVIDIA presenta Nemotron 3 Super 120B y DGX Spark: La era de los agentes de IA locales ha llegado

NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…

2 meses ago

GeForce NOW Ultimate eleva la VR a 90 FPS: Apple Vision Pro, Meta Quest y Pico reciben la actualización

NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…

2 meses ago