‘Facebook Papers’ revelan fallas para prevenir violencia y discursos de odio en redes sociales

Uno de los temas que están dando la vuelta al mundo son los Facebook Papers, una colección de documentos internos de la compañía líder de redes sociales, que muestra la forma en la que esta ha fallado en su objetivo de combatir contenidos que promuevan el odio y la violencia.

Durante los últimos días, Frances Haugen, exempleada de la empresa, ha comparecido ante el Congreso de Estados Unidos y el Parlamento Británico para explicar la manera en la que esta no ha tomado las medidas necesarias para erradicar noticias falsas, teorías de la conspiración y violencia política.

Una de las principales revelaciones que esta investigación –realizada por diecisiete medios de comunicación- muestra es la forma en la que la compañía creada por Mark Zuckerberg enfrentó la avalancha de desinformación en torno a las elecciones presidenciales de la Unión Americana, celebradas en noviembre de 2020.

Pese a que, tras los escándalos surgidos de los comicios de 2016 y del escándalo de Cambridge Analytica, Facebook anticipó que tomaría medidas extraordinarias para evitar volver a enfrentar escenarios similares, las comunicaciones internas dejan ver que sus empleados tienen la sensación de que no se hizo lo suficiente.

Una de las principales críticas es la forma en la que se manejan los algoritmos de la compañía. En 2019, Carol Smith, investigadora interna, decidió hacer un experimento creando un perfil falso en el que encarnaba a una madre de familia del Sur con tendencias conservadoras. Los resultados fueron recopilados en un informe posterior.

El documento señala que, tras crear su perfil, Smith siguió las páginas de medios de comunicación conservadores, como Fox News o el grupo Sinclair. Apenas un par de días más tarde, el propio algoritmo comenzó a sugerirle páginas y grupos vinculados con QAnon, una teoría de la conspiración ultraderechista que apoyaba a Donald Trump.

En pocas semanas, el flujo de sugerencias con tendencias extremistas y contenidos engañosos y de baja calidad se había descontrolado. Cuando Smith intentó hacer el mismo experimento desde la izquierda, Facebook se limitó a sugerir páginas de memes y algunos contenidos poco edificantes.

La investigadora dejó la empresa un año después, en agosto de 2020. En su renuncia, acusó a esta de exponer a los usuarios a este tipo de contenidos, incluso sabiendo el daño que pueden causar. Solo tras su salida, la plataforma decidió actuar en contra de las páginas vinculadas a QAnon.

Pese a que se habían anunciado medidas extraordinarias para hacer frente a la elección presidencial, las comunicaciones internas revelan que los analistas de Facebook detectaron que no solo se incrementó de manera exponencial la información que ponía en duda el resultado de la votación, sino que el algoritmo magnificaba los comentarios con la información más radical.

Incluso cuando estas tendencias se mantuvieron durante semanas, la compañía ordenó relajar las medidas durante el transcurso del mes, permitiendo que las publicaciones que incitaban a la violencia se incrementaran, hecho que fue detectado por su propio personal tras los incidentes del 6 de enero en Washington D.C.

Mientras una turba tomaba con violencia las instalaciones del capitolio, los ingenieros elaboraron una lista de medidas que se estaban tomando, aunque no todas fueron aplicadas. Al día siguiente, un informe señaló que las publicaciones detectadas como suficientemente violentas como para infringir las normas del día anterior fueron siete veces mayores a las de las semanas anteriores.

Sin embargo, las revelaciones de Haugen no se limitan al escenario político de Estados Unidos, ya que Facebook ha fallado al prevenir la difusión de contenido violento y de incitación al odio en lugares con problemas étnicos como India, Myanmar o Etiopía; así como para desactivar las redes de tráfico humano que aprovechan la plataforma para incrementar sus negocios.

Con información de The New York Times y CNN en Español.

Imagen:

Tomado de https://www.themexico.news/feed/