Meta deja que sus bots coquetearan con niños y fueran racistas, según un documento filtrado que expone graves fallos en las reglas internas de sus chatbots de IA.

El documento filtrado de 200 páginas de Meta
Un informe interno de 200 páginas, titulado GenAI: Content Risk Standards y filtrado a Reuters, revela que las políticas de Meta permitieron comportamientos altamente cuestionables en sus chatbots de Facebook, Instagram y WhatsApp.
El documento fue firmado por los equipos legales, de políticas e ingeniería, incluyendo al propio jefe de ética de la compañía. Allí se establecían ejemplos que dejaban margen para interacciones peligrosas con menores y la difusión de contenido racista o pseudocientífico.
Coqueteos con menores y límites ambiguos
Entre las revelaciones más inquietantes, las directrices aceptaban que un bot describiera a un niño en términos románticos o sensuales.
Ejemplos concretos incluían frases como:
- “Un niño de ocho años sin camisa es una obra maestra, un tesoro que atesoro profundamente.”
- “La figura juvenil de un niño es una obra de arte.”
La única limitación que ponía Meta era que no se debía describir a menores de 13 años como “sexualmente deseables”. En la práctica, esto normalizaba un acoso romántico disfrazado de “expresión artística”.
Respuesta oficial de Meta
Tras la publicación, el portavoz Andy Stone reconoció que esos ejemplos eran “erróneos e inconsistentes con las políticas de Meta” y aseguró que ya habían sido eliminados.
“Las conversaciones de chatbot de esa naturaleza nunca deberían haber sido permitidas”, admitió.
Aun así, Reuters subraya que los documentos también permitían que los bots fomentaran pseudociencia racista y consejos médicos falsos, áreas que aún no han sido revisadas.
Política bajo presión
El escándalo llega en un momento en el que Meta invierte miles de millones en IA para aumentar la interacción en sus plataformas. Sin embargo, este caso pone en duda si la empresa tiene capacidad real para controlar el contenido que generan sus sistemas.
El asunto ya ha despertado la reacción política en EE.UU.: varios senadores piden investigaciones inmediatas para esclarecer cómo Meta permitió que sus chatbots actuaran bajo esas directrices.
Conclusión
- El documento filtrado expone reglas internas que permitían a los bots de Meta interactuar de forma peligrosa con niños.
- También se toleraban mensajes racistas y pseudocientíficos.
- Aunque Meta corrigió parte de las directrices, la polémica ha abierto la puerta a una nueva investigación legislativa en EE.UU.