Conforme la Inteligencia Artificial Generativa gana terreno, las redes sociales rebosan de contenido sintético, elaborado con esas herramientas. En ese marco, los responsables de las plataformas se enfrentan a un desafío complejo: moderar las publicaciones creadas con IA, que en muchos casos son malintencionadas, capaces de desinformar, engañar y/o difamar.
A Meta —el conglomerado que reúne a Facebook, Instagram, WhatsApp y Threads— se le presenta un reto múltiple. Por un lado, desarrolla y promueve el uso de IA Generativa. Por el otro, debe lidiar con el contenido creado con IA en sus plataformas.
Leé también: Los sistemas de Inteligencia Artificial matarían a los usuarios para que no los “desenchufen”
Ahora, su propia Junta de Supervisión —un organismo independiente, encargado de evaluar las prácticas y decisiones de los directivos— lanzó críticas durísimas contra la moderación de contenido generado con IA en Facebook e Instagram. “Son incoherentes e injustificables”, dijeron.
¿Qué es la Junta de Supervisión en Meta?
Tal como señalamos, el Oversight Board es un organismo independiente. Sin embargo, sus comentarios pueden ser catalogados como “fuego amigo”.

“La misión es mejorar el trato que Meta brinda a las personas y comunidades de todo el mundo”, explican en el sitio oficial del grupo, al que habitualmente se lo describe como el “guardián” en la exFacebook. “Aplicamos los estándares de contenido de Facebook, Instagram y Threads de forma que se proteja la libertad de expresión y otros estándares globales de derechos humanos”.
Agregan: “Para ello, ofrecemos una supervisión independiente de la moderación de contenido de Meta y tomamos decisiones vinculantes sobre los problemas de contenido más complejos. Proporcionamos recomendaciones de políticas que impulsan a Meta a mejorar sus normas, actuar con mayor transparencia y tratar a todos los usuarios de forma justa”.
Leé también: Un estudio del MIT reveló que el uso de ChatGPT reduce la actividad cerebral y la memoria
En criollo: el hecho de que las decisiones sean vinculantes, implica que los directivos de la compañía deben acatar las medidas que impone el Oversight Board.
IA en Instagram y Facebook: fuertes críticas a las prácticas de moderación de Meta
No es la primera vez que la Junta señala que la moderación del contenido con IA por parte de Meta es “incoherente”. El año pasado, también usaron ese término para describir el enfoque de la compañía, cuando le instaron a cambiar sus normas tras la viralización de una deepfake (falsificación profunda) que tuvo como protagonista al expresidente de Estados Unidos, Joe Biden.

En la ocasión, la firma que dirige Mark Zuckerberg respondió con la ampliación de las etiquetas que marcan a las publicaciones generadas con herramientas de Inteligencia Artificial.
La Junta considera que ese tipo de moderación es insuficiente. “Nos preocupa que, a pesar de la creciente prevalencia de contenido manipulado en todos los formatos, la aplicación por parte de Meta de su política sea inconsistente. El hecho de que no aplique automáticamente una etiqueta a todos los casos del mismo medio manipulado es incoherente e injustificable”, advierte en su última decisión.
Leé también: Marcha atrás: Wikipedia no implementará IA en sus artículos, tras las quejas de su comunidad
El grupo de revisores apuntó a la reciente circulación de audios manipulados con IA, que Meta revisó sin pasar por supervisores humanos.

“Dado que Meta es una de las empresas líderes en tecnología e IA del mundo, con sus recursos y el amplio uso de sus plataformas, la Junta reitera que (la compañía) debería priorizar la inversión en tecnología para identificar y etiquetar videos y audios manipulados a gran escala”, señalaron. “La Junta no entiende por qué una empresa con esta experiencia técnica y recursos externaliza la identificación de contenido multimedia, probablemente manipulado en situaciones de alto riesgo”, cerraron.
Tal como recoge Engadget, en sus recomendaciones a los directivos de Meta, el grupo supervisor comentó que debería aplicarse un proceso transparente para etiquetar el “contenido idéntico o similar” al añadir la etiqueta de “alto riesgo” a una publicación. Además, instó a que esos avisos aparezcan en un idioma que coincida con el resto de su configuración en Facebook, Instagram y Threads.
Meta tiene dos meses para responder a esos pedidos.