Categories: NoticiaTecnología

Meta deja que sus bots coquetearan con niños y fueran racistas

Meta deja que sus bots coquetearan con niños y fueran racistas, según un documento filtrado que expone graves fallos en las reglas internas de sus chatbots de IA.

El documento filtrado de 200 páginas de Meta

Un informe interno de 200 páginas, titulado GenAI: Content Risk Standards y filtrado a Reuters, revela que las políticas de Meta permitieron comportamientos altamente cuestionables en sus chatbots de Facebook, Instagram y WhatsApp.

El documento fue firmado por los equipos legales, de políticas e ingeniería, incluyendo al propio jefe de ética de la compañía. Allí se establecían ejemplos que dejaban margen para interacciones peligrosas con menores y la difusión de contenido racista o pseudocientífico.

Coqueteos con menores y límites ambiguos

Entre las revelaciones más inquietantes, las directrices aceptaban que un bot describiera a un niño en términos románticos o sensuales.

Ejemplos concretos incluían frases como:

  • “Un niño de ocho años sin camisa es una obra maestra, un tesoro que atesoro profundamente.”
  • “La figura juvenil de un niño es una obra de arte.”

La única limitación que ponía Meta era que no se debía describir a menores de 13 años como “sexualmente deseables”. En la práctica, esto normalizaba un acoso romántico disfrazado de “expresión artística”.

Respuesta oficial de Meta

Tras la publicación, el portavoz Andy Stone reconoció que esos ejemplos eran “erróneos e inconsistentes con las políticas de Meta” y aseguró que ya habían sido eliminados.

“Las conversaciones de chatbot de esa naturaleza nunca deberían haber sido permitidas”, admitió.

Aun así, Reuters subraya que los documentos también permitían que los bots fomentaran pseudociencia racista y consejos médicos falsos, áreas que aún no han sido revisadas.

Política bajo presión

El escándalo llega en un momento en el que Meta invierte miles de millones en IA para aumentar la interacción en sus plataformas. Sin embargo, este caso pone en duda si la empresa tiene capacidad real para controlar el contenido que generan sus sistemas.

El asunto ya ha despertado la reacción política en EE.UU.: varios senadores piden investigaciones inmediatas para esclarecer cómo Meta permitió que sus chatbots actuaran bajo esas directrices.

Conclusión

  • El documento filtrado expone reglas internas que permitían a los bots de Meta interactuar de forma peligrosa con niños.
  • También se toleraban mensajes racistas y pseudocientíficos.
  • Aunque Meta corrigió parte de las directrices, la polémica ha abierto la puerta a una nueva investigación legislativa en EE.UU.

Michael Tavarez Perez

Escribo artículos en la web. Tras pasar por varias empresas como técnico de telecomunicaciones, decidí probar con el diseño web. Me gusta a jugar a videojuegos, montar PCs y trastear con tecnología en general.

Recent Posts

IBM Power11: más velocidad, 2.5D y aceleración de IA

IBM presenta el Power11 en Hot Chips 2025: CPU de 16 núcleos a 4,3 GHz,…

7 horas ago

AMD culpa a fabricantes por los sobrecalentamientos en AM5

AMD culpa a fabricantes de placas por el escándalo de sockets AM5 quemados. ASRock en…

7 horas ago

Intel advierte que la entrada de Trump puede salir cara

Intel advierte que la entrada del gobierno de EE.UU. con un 9,9 % de acciones…

10 horas ago

Huawei trabaja en SSDs de IA que podrían reemplazar la HBM

Huawei desarrolla supuestos “AI SSDs” que podrían sustituir la HBM en IA, ofreciendo más capacidad…

11 horas ago

Paquete HD transforma entornos de Baldur’s Gate 3

Paquete HD transforma todos los entornos de Baldur’s Gate 3. Texturas ambientales mejoradas con IA,…

18 horas ago

Black Ops 7 vs Battlefield 6: ¿diversidad-nostalgia?

Black Ops 7 vs Battlefield 6: ¿diversidad o nostalgia? Black Ops 7 apuesta por ser…

18 horas ago