Ahora sabemos por qué Facebook decidió cambiar su algoritmo de detección de discurso de odio “ciego a la raza” el año pasado. para permitir más odio contra los blancos.

The Washington Post informó la semana pasada que “un documento de abril de 2020 decía que aproximadamente el 90 por ciento de los ‘discursos de odio’ sujetos a eliminación de contenido eran declaraciones de desprecio, inferioridad y disgusto dirigidas a personas y hombres blancos”.

Ellos vieron esto como un fracaso del sistema porque se supone que los blancos son el blanco de todo odio.

De The Washington Post, “Las prácticas ciegas a la raza de Facebook en torno al discurso del odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos”.:

El portavoz de Facebook, Andy Stone, defendió las decisiones de la compañía en torno a sus políticas de incitación al odio y la forma en que conducía su relación con los auditores de derechos civiles.

“El proyecto Lo peor de lo peor nos ayudó a mostrarnos qué tipo de discurso de odio era nuestra tecnología y qué no detectaba y comprendía de manera efectiva qué formas de ella la gente cree que son las más insidiosas”, dijo Stone en un comunicado.

Dijo que el progreso en cuestiones raciales incluyó políticas como la prohibición de los grupos nacionalistas blancos, la prohibición de contenido que promueva estereotipos raciales, como las personas con la cara negra o las afirmaciones de que los judíos controlan los medios de comunicación, y la reducción de la prevalencia del discurso de odio al 0,03 por ciento del contenido de la plataforma.

[…] Estos hallazgos sobre el contenido más objetable se mantuvieron incluso entre los conservadores blancos autoidentificados que el equipo de investigación de mercado viajó a visitar en los estados del sur. Los investigadores de Facebook buscaron las opiniones de los conservadores blancos en particular porque querían superar las posibles objeciones del liderazgo de la compañía, que se sabía que apaciguaba los puntos de vista de derecha, dijeron dos personas.

Sin embargo, las publicaciones racistas contra las minorías no eran lo que los algoritmos de detección del discurso de odio de Facebook encontraban con mayor frecuencia. Se suponía que el software, que la compañía presentó en 2015, detectaría y eliminaría automáticamente el discurso de odio antes de que los usuarios lo vieran. Públicamente, la compañía dijo en 2019 que sus algoritmos capturaron de manera proactiva más del 80 por ciento del discurso de odio.

Pero esta estadística ocultaba un problema grave que era obvio para los investigadores: El algoritmo detectaba agresivamente los comentarios que denigraban a los blancos más que los ataques a cualquier otro grupo, según varios de los documentos. Un documento de abril de 2020 decía que aproximadamente el 90 por ciento de los “discursos de odio” sujetos a eliminación de contenido eran declaraciones de desprecio, inferioridad y disgusto dirigidas a los blancos y los hombres., aunque el marco de tiempo no está claro.

No podemos tener eso, ¿verdad?

Tuvimos una gran conversación con Maj Toure, rapero, emprendedor, activista de la segunda enmienda y fundador de Black Guns Matter, que sirve para educar a las personas en las comunidades urbanas sobre sus derechos y responsabilidades a través del entrenamiento y la educación sobre armas de fuego.





Read more…