Lima, Perú
+5113014109

Facebook ataca a grupos peligrosos mientras sigue sin poner remedio a la viralización de contenido nocivo

Facebook ataca a grupos peligrosos mientras sigue sin poner remedio a la viralización de contenido nocivo


Madrid
Actualizado:

Guardar

Facebook ha convertido el escándalo en su hábitat. La red social lleva semanas en el borde del precipicio por la filtración de miles de documentos oficiales en los que queda en entredicho su trabajo para limitar el contenido que incita el odio y proteger a los usuarios de aquello que pueda resultar dañino. Ahora, ese material ha sido compartido por la extrabajadora de la empresa Frances Haugen, conocida como ‘garganta profunda’, con más medios de comunicación a parte de ‘The Wall Street Journal’, que fue el primero que tuvo acceso. Entre ellos figuran ‘
The Whasington Post
‘, ‘
The New York Times
‘ o ‘
CNN
‘.

Después de semanas en las que ‘The Wall Street Journal’ se ha dedicado a exprimir a conciencia los datos filtrados por Haugen, la información compartida por estos medios no deja de ser una gota más en un vaso de agua que, por muy lleno que esté, no colma. Con todo, se comparten historias interesantes que, en este caso, están centradas en cómo el funcionamiento de Facebook permitió alentar el asalto al Capitolio de Estados Unidos el 6 de enero del presente año. En buena medida, por culpa de la retirada prematura de las herramientas impulsadas para limitar la viralidad de las publicaciones extremistas una vez finalizaron las elecciones presidenciales de noviembre.

El asalto al Capitolio, un problema viejo

Para Facebook, mantener la red social limpia de desinformación y de incitaciones al odio durante el proceso de 2020 se convirtió en algo capital, más teniendo en cuenta los problemas experimentados por la plataforma en las
elecciones de 2016. Esos que desencaderon en el escándalo de Cambridge Analytica
.

Sobre el papel, en los días posteriores a la elección del actual presidente de Estados Unidos, Joe Biden, parecía que el esfuerzo de la tecnológica había dado sus frutos. Al menos, los empleados estaban satisfechos con el trabajo hecho. «Fue como si pudiéramos dar una vuelta de victoria», afirma a este respecto un extrabajador de Facebook en declaraciones a ‘The Whasington Post’. «Había mucha sensación de chocar los cinco en la oficina», apunta otro.

Con el trabajo hecho -o, al menos, eso es lo que se pensaba- la red social comenzó a levantar las medidas de seguridad a principios de diciembre y a permitir que el contenido pudiese volver a viralizarse exactamente igual que siempre. Sin embargo, cuando llegó
asalto al capitolio el 6 de enero
, cundió la alarma. La red social intentó volver a levantar todas las barreras mientras la plataforma se llenaba de publicaciones en las que se incitaba a la violencia o al odio. «Este no es un problema nuevo», afirmó un trabajador de la compañía en una publicación en la red interna de Facebook durante el día del asalto. Y es cierto, no lo es. Al menos para la red social de Mark Zuckerberg.

Más viral, más beneficios

Las nuevas filtraciones ponen en tela de juicio el trabajo de la plataforma para contrarrestar la viralidad del contenido que incita al odio o la violencia. Y todo,
como ha afirmado Frances Haugen en numerosas ocasiones
, por temor a que los beneficios del coloso de internet desciendan. A este respecto, los medios que han tenido acceso a la información de la empresa comparten la experiencia de la usuaria de 41 años Carol Smith.

Smith, conservadora y nativa Wilmington, en el estado norteamericano de Carolina del Norte, tenía entre sus intereses al abrir la cuenta «los niños pequeños, la crianza de los hijos, el cristianismo, la educación cívica y la comunidad», de acuerdo con ‘Wall Street Journal’. En su pimer día en la red social, se encontró con recomendaciones de memes humorísticos y grupos generalmente conservadores. En el segundo, la plataforma recomendaba casi exclusivamente contenido de derechas, incluidas algunas publicaciones que se inclinaban por las teorías de la conspiración.

El quinto día, Smith comenzó a ser dirigida por Facebook hacia grupos con afiliaciones abiertas con el
grupo extremista estadounidense QAnon
. El contenido seleccionado incluía afirmaciones falsas sobre un supuesto «genocidio blanco».

El problema, más allá de la demostración de cómo funciona el algoritmo de Facebook y cómo dirige a los usuarios hacia contenido que, según considera, será de su interés, es que Smith ni siquiera era una persona real. Detrás estaba un investigador de la plataforma intentando estudiar el comportamiento de la herramienta. La compañía, por tanto, es perfectamente consciente de la realidad. Igual que sus trabajadores, muchos de los cuales han propuesto soluciones al problema que han sido descartadas.

Ese es el caso, por ejemplo, de Kang-Xing Jin, amigo personal de Mark Zuckerberg desde los años del ejecutivo en la Universidad de Harvard, que es uno de los trabajadores que más ha llamado la atención sobre el riesgo de los contenidos virales. «Hay un conjunto creciente de investigaciones que muestran que algunos canales virales se usan para mal más de lo que se usan para bien», afirma en los documentos filtrados de Facebook.

John Hegeman, jefe de anuncios de la red social, dio la réplica apuntando que «si eliminamos un pequeño porcentaje de las acciones que se comparten de la cronología de los usuarios, estos deciden volver menos a Facebook». La empresa se quedó con esta valoración de Hegeman priorizando los beneficios económicos sobre la lucha contra el contenido nocivo.

Atacando a grupos concretos

En lugar de atacar directamente este tipo de publicaciones, los medios estadounidenses apuntan que Facebook ha escogido un camino distinto. Este pasa, en concreto desde principios de 2021, por atacar a los grupos que, en su opinión, son peligrosos. A este respecto, se destaca el caso del Partido Patriota, una suerte de alternativa al Partido Republicano de Estados Unidos surgido después del asalto al Capitolio que, supuestamente, estaba siendo impulsado por nacionalistas blancos y milicias autoproclamadas.

Facebook tomó la decisión de dificultar que los organizadores compartieran el contenido del Partido Patriota, restringieron la visibilidad de los grupos conectados al movimiento y limitaron sus posibilidades de reclutar nuevos adeptos, según una revisión de marzo. «Pudimos cortar de raíz términos como Patriot Party antes de la adopción masiva», se puede leer en los documento de la compañía.

De este modo, la red social apuesta por seleccionar los usuarios que considera potencialmente peligrosos y, en base a sus criterios, los dirige hacia contenido distinto, los silencia o limita el acceso de terceros a sus publicaciones. También puede optar, directamente, por eliminar cuentas, que es la única forma en la que el internauta es completamente consciente de que, efectivamente, la plataforma ha tomado medidas contra él. De otro modo, simplemente puede pensar que lo que comparte no resulta relevante para el resto.

Según ‘The Wall Street Journal’, Facebook ha repetido el caso del Partido Patriota con otros grupos, entre ellos el alemán Querdenken, que, aunque publica contenido relacionado con las teorías de la conspiración y el antisemitismo, no rompe «crónicamente»con las reglas de la red social, de acuerdo con la propia Facebook. Con todo, el grupo había sido puesto bajo vigilancia por las autoridades alemanas debido a algunas acciones violentas con las que estarían relacionados. Facebook optó por degradar el contenido de Querdenken en la plataforma e impidió que muchos usuarios recibieran notificaciones sobre sus publicaciones.

Ver los
comentarios



Enlace fuente

Post Relacionados
× ¿Cómo puedo ayudarte? Available from 09:00 to 18:00