Facebook informa a los usuarios sobre la mecanización de la moderación de los post

La red social Facebook está informando a un grupo de usuarios sobre la eliminación de contenidos que incitan al odio y si dichos post han sido moderados por herramientas automáticas de la red social.

Estas pruebas, que se están llevando a cabo entre un grupo de usuarios, se están realizando tras la recomendación de su Consejo asesor de contenido, que acaba de publicar su informe del primer trimestre de 2021.

Según ha informado Facebook en un comunicado, durante los tres primeros meses de 2021, la junta de este consejo asesor, que se encarga de revisar las apelaciones de casos de moderación complejos, ha emitido 18 recomendaciones en seis casos. De estos puntos, se han implementado total o parcialmente 14 recomendaciones, se está evaluando la viabilidad de implementar tres y una se ha descartado. 

A lo largo de ese periodo, Facebook ha mejorado la información sobre las razones por las que se eliminan post, utilizando un clasificador adicional que puede predecir qué tipo de discurso de odio está en el contenido, ya sea por violencia, deshumanización, burla de los delitos de odio, comparación visual, inferioridad, desprecio, maldiciones, exclusión y/o difamación. 

Del mismo modo, Facebook ha actualizado la política de organizaciones peligrosas e individuos, creando tres niveles de aplicación de contenido para diferentes designaciones de gravedad, añadiendo definiciones de términos clave. Este tipo de información ya está siendo recibida por los usuarios en inglés, pero la compañía se ha comprometido a que usuarios de otros idiomas podrán contar con ello en un futuro cercano.