Categories: NoticiaTecnología

Meta deja que sus bots coquetearan con niños y fueran racistas

Meta deja que sus bots coquetearan con niños y fueran racistas, según un documento filtrado que expone graves fallos en las reglas internas de sus chatbots de IA.

El documento filtrado de 200 páginas de Meta

Un informe interno de 200 páginas, titulado GenAI: Content Risk Standards y filtrado a Reuters, revela que las políticas de Meta permitieron comportamientos altamente cuestionables en sus chatbots de Facebook, Instagram y WhatsApp.

El documento fue firmado por los equipos legales, de políticas e ingeniería, incluyendo al propio jefe de ética de la compañía. Allí se establecían ejemplos que dejaban margen para interacciones peligrosas con menores y la difusión de contenido racista o pseudocientífico.

Coqueteos con menores y límites ambiguos

Entre las revelaciones más inquietantes, las directrices aceptaban que un bot describiera a un niño en términos románticos o sensuales.

Ejemplos concretos incluían frases como:

  • “Un niño de ocho años sin camisa es una obra maestra, un tesoro que atesoro profundamente.”
  • “La figura juvenil de un niño es una obra de arte.”

La única limitación que ponía Meta era que no se debía describir a menores de 13 años como “sexualmente deseables”. En la práctica, esto normalizaba un acoso romántico disfrazado de “expresión artística”.

Respuesta oficial de Meta

Tras la publicación, el portavoz Andy Stone reconoció que esos ejemplos eran “erróneos e inconsistentes con las políticas de Meta” y aseguró que ya habían sido eliminados.

“Las conversaciones de chatbot de esa naturaleza nunca deberían haber sido permitidas”, admitió.

Aun así, Reuters subraya que los documentos también permitían que los bots fomentaran pseudociencia racista y consejos médicos falsos, áreas que aún no han sido revisadas.

Política bajo presión

El escándalo llega en un momento en el que Meta invierte miles de millones en IA para aumentar la interacción en sus plataformas. Sin embargo, este caso pone en duda si la empresa tiene capacidad real para controlar el contenido que generan sus sistemas.

El asunto ya ha despertado la reacción política en EE.UU.: varios senadores piden investigaciones inmediatas para esclarecer cómo Meta permitió que sus chatbots actuaran bajo esas directrices.

Conclusión

  • El documento filtrado expone reglas internas que permitían a los bots de Meta interactuar de forma peligrosa con niños.
  • También se toleraban mensajes racistas y pseudocientíficos.
  • Aunque Meta corrigió parte de las directrices, la polémica ha abierto la puerta a una nueva investigación legislativa en EE.UU.

Michael Tavarez Perez

Escribo artículos en la web. Tras pasar por varias empresas como técnico de telecomunicaciones, decidí probar con el diseño web. Me gusta a jugar a videojuegos, montar PCs y trastear con tecnología en general.

Recent Posts

SteamOS 3.8.0 ya disponible: Perfiles de rendimiento por juego, soporte para ROG Ally y KDE Plasma 6.2.5

Valve lanza SteamOS 3.8.0 con perfiles de rendimiento personalizados por juego, soporte expandido para ASUS…

1 día ago

NVIDIA presenta Nemotron 3 Super 120B y DGX Spark: La era de los agentes de IA locales ha llegado

NVIDIA lanza nuevos modelos abiertos Nemotron 3 con hasta 120B parámetros para ejecutar agentes de…

2 días ago

GeForce NOW Ultimate eleva la VR a 90 FPS: Apple Vision Pro, Meta Quest y Pico reciben la actualización

NVIDIA actualiza GeForce NOW Ultimate con soporte para 90 FPS en dispositivos VR, mejorando la…

2 días ago

Synology DS1525+: Mi experiencia real tras meses de uso profesional

Te cuento cómo el Synology DS1525+ se ha convertido en el cerebro de mi trabajo:…

3 días ago

Intel lanza los Core Ultra 200HX Plus: Hasta un 8% más de rendimiento gaming y frecuencias die-to-die mejoradas

Intel presenta los nuevos Core Ultra 9 290HX Plus y Core Ultra 7 270HX Plus…

3 días ago

NVIDIA confirma DLSS 4.5 para el 31 de marzo: Llega el modo x6 con hasta 240 FPS

NVIDIA confirma que DLSS 4.5 llega el 31 de marzo con modo x6 y hasta…

3 días ago