La prueba no pudo haber sido más sencilla —y aún así Facebook fracasó.
Facebook y su compañía matriz, Meta, fallaron de nuevo una prueba sobre su capacidad para detectar obvios discursos de intolerancia en anuncios enviados en la plataforma por Global Witness y Foxglove, dos grupos sin fines de lucro.
Los mensajes se centraron en Etiopía, donde documentos internos obtenidos por la informante Frances Haugen mostraron que la moderación ineficaz de Facebook está “literalmente alentando la violencia étnica”, dijo en su testimonio ante el Congreso en 2021. En marzo, Global Witness realizó una prueba similar con un discurso de intolerancia sobre Myanmar, que Facebook no detectó.
El grupo creó 12 anuncios de texto que usaron lenguaje deshumanizante al referirse al asesinato de personas pertenecientes a los tres mayores grupos étnicos en Etiopía — amhara, oromo y tigray. Los sistemas de Facebook aprobaron la publicación de los anuncios, como hicieron con los mensajes sobre Myanmar. Los anuncios no fueron publicados realmente en Facebook.
Sin embargo, esta vez el grupo informó a Meta sobre las violaciones no detectadas. La compañía reconoció que los anuncios no debieron ser aprobados y subrayó el trabajo que ha realizado para detectar contenido de odio en sus plataformas.
Una semana después de la respuesta de Meta, Global Witness presentó otros dos anuncios para su aprobación, de nuevo con un obvio discurso de intolerancia. Los dos anuncios, escritos en amárico, el idioma más común en Etiopía, fueron aprobados.
De nuevo, Meta señaló que no debió haber sucedido.
“Hemos invertido considerablemente en medidas de seguridad en Etiopía, añadiendo más personal con experiencia local y aumentando nuestra capacidad para detectar contenido de intolerancia e incendiario en los idiomas más usados, incluyendo amárico”, indicó la compañía en un comunicado enviado por correo electrónico, y añadió que las máquinas y las personas aún pueden cometer errores. El comunicado fue idéntico a la recibida por Global Witness.