Current track

Title

Artist


El truco que Facebook tiene pero no dice porque le conviene el odio

Written by on 15 noviembre, 2021

La empresa cambió su nombre para “lavar imagen”, y Zuckerberg no publicita un truco que evitaría que el odio.

En público, Facebook parece afirmar que elimina más del 90 por ciento del discurso de odio en su plataforma, pero en comunicaciones internas privadas, la compañía dice que la cifra es solo un atroz 3 a 5 por ciento. Vale la pena repetirlo: Facebook quiere hacernos creer que casi todo el discurso de odio se elimina, cuando en realidad casi todo permanece en la plataforma.

Esta hipocresía obscena se reveló en medio de las numerosas quejas, basadas en miles de páginas de documentos internos filtrados, que la empleada de Facebook convertida en denunciante, Frances Haugen, y su equipo legal presentaron ante la SEC a principios de este mes. Si bien la atención pública sobre estas filtraciones se ha centrado en el impacto de Instagram en la salud de los adolescentes (que no es la pistola humeante que se ha promocionado) y en el papel del algoritmo de News Feed en la amplificación de la información errónea (apenas una revelación), el absoluto fracaso de Facebook para limitar el discurso de odio y el simple truco engañoso en el que se confía constantemente para ocultar esta falla es impactante. Expone cuánto Facebook confía en la inteligencia artificial para la moderación de contenido, cuán ineficaz es esa inteligencia artificial y la necesidad de obligar a Facebook a aclararse.

En un testimonio ante el Senado de EE. UU. En octubre de 2020, Mark Zuckerberg señaló los informes de transparencia de la compañía, que, según dijo, muestran que “nos estamos identificando de manera proactiva, creo que es alrededor del 94 por ciento del discurso de odio que terminamos eliminando”. En un testimonio ante la Cámara unos meses después, Zuckerberg respondió de manera similar a las preguntas sobre el discurso del odio citando un informe de transparencia: “También eliminamos alrededor de 12 millones de piezas de contenido en Grupos por violar nuestras políticas sobre el discurso del odio, el 87 por ciento de las cuales encontramos de forma proactiva “. En casi todos los informes trimestrales de transparencia, Facebook proclama porcentajes de moderación del discurso de odio en los años 80 y 90 como estos. Sin embargo, un documento filtrado de marzo de 2021 dice: “Podemos actuar con tan solo un 3-5% de odio … en Facebook”.

¿Fue Facebook realmente atrapado en una mentira atroz? Si y no. Técnicamente, ambos números son correctos, solo miden cosas diferentes. La medida que realmente importa es la que ha estado ocultando Facebook. La medida que Facebook ha estado informando públicamente es irrelevante. Es un poco como si cada vez que un oficial de policía lo detuviera y le preguntara qué tan rápido iba, siempre respondiera ignorando la pregunta y en su lugar se jactara del rendimiento de la gasolina de su automóvil.

Hay dos formas de marcar el discurso de odio para su revisión y posible eliminación. Los usuarios pueden informarlo manualmente o los algoritmos de IA pueden intentar detectarlo automáticamente. La detección algorítmica es importante no solo porque es más eficiente, sino también porque se puede hacer proactivamente, antes de que los usuarios marquen el discurso de incitación al odio.

Es un poco como si cada vez que un oficial de policía lo detuviera y le preguntara qué tan rápido iba, siempre respondiera ignorando la pregunta y en su lugar se jactara del rendimiento de la gasolina de su automóvil.

La cifra del 94 por ciento que Facebook ha promocionado públicamente es la “tasa proactiva”, la cantidad de elementos de incitación al odio eliminados que la IA de Facebook detectó de manera proactiva, dividido por la cantidad total de elementos de incitación al odio eliminados. Es el porcentaje de eliminaciones de incitación al odio que se eliminaron antes de que cualquier usuario las denunciara.

Facebook probablemente quiere que pienses que este número transmite cuánto discurso de odio se elimina antes de que tenga la oportunidad de causar daño, pero todo lo que realmente mide es qué papel juegan los algoritmos en la detección de discurso de odio en la plataforma.

Lo que le importa a la sociedad es la cantidad de discurso de odio que se no retirado de la plataforma. La mejor manera de capturar esto es dividir el número de eliminaciones de discursos de odio por el número total de instancias de discursos de odio. Esta “tasa de eliminación” mide la cantidad de discurso de odio en Facebook que realmente se elimina, y es el número que Facebook intentó mantener en secreto.

Gracias a Haugen, finalmente conocemos la tasa de eliminación, y es lamentable. Según documentos internos, más del 95 por ciento del discurso de odio compartido en Facebook permanece en Facebook. Zuckerberg se jactó ante el Congreso de que Facebook eliminó 12 millones de discursos de odio en Grupos, pero según la estimación filtrada, ahora sabemos que es probable que se hayan dejado alrededor de 250 millones de discursos de odio. Esto es asombroso y muestra cuán poco progreso se ha logrado desde los primeros días de los foros de Internet no regulados, a pesar de las grandes inversiones que Facebook ha realizado en la moderación del contenido de IA a lo largo de los años.

Desafortunadamente, la queja que el equipo legal de Haugen presentó a la SEC enturbió el tema al afirmar de manera prominente en negrita: “Los registros de Facebook confirman que las declaraciones de Facebook eran falsas”. Esto en sí mismo es falso: la dependencia de Facebook de altas tasas proactivas es simplemente la medida incorrecta para informar. Facebook técnicamente no mintió o “tergiversó” la verdad, como se alega en la denuncia, pero ha engañado repetida e incuestionablemente al público sobre el pozo negro de discurso de odio que es su plataforma y lo terrible que es la empresa para controlarla.

Tagged as

Reader's opinions

Leave a Reply

Your email address will not be published. Required fields are marked *