Filtraciones de Facebook: La red social sabía que estaba radicalizando a sus usuarios y no podía ya que era demasiado lento para erradicar a QAnon y los anti-vacunas dicen los críticos


Los documentos internos de Facebook filtrados a los medios confirmaron las acusaciones de que sus algoritmos empujaban a los usuarios a opiniones radicales. Los defensores de una mayor censura de contenido han recibido nuevos argumentos para su caso.

El gigante de Silicon Valley no hace lo suficiente para proteger a la sociedad de varios males, creen sus críticos, incluidos algunos empleados. Mientras tanto, Facebook está trabajando en nuevas formas de frenar el crecimiento de ciertos grupos mediante la manipulación en lugar de prohibiciones generales.

«Carol Smith», una madre políticamente conservadora autoidentificada de Wilmington, Carolina del Norte, interesada en el cristianismo, se unió a Facebook en el verano de 2019. Se suscribió a las cuentas de Fox News, Sinclair Broadcasting y Donald Trump.

En dos días, Facebook sugirió que echara un vistazo a los últimos memes de QAnon, una teoría de la conspiración que afirma que un oscuro grupo de ‘patriotas’ estadounidenses, junto con Donald Trump, estaban a punto de tomar medidas enérgicas contra una red nacional de pedófilos poderosos, incluidos políticos prominentes. . En tres semanas, su feed fue «un flujo constante de contenido engañoso, polarizador y de baja calidad», según un informe interno de Facebook filtrado por un ex empleado, entre un tesoro de otros documentos.

Carol ‘era una persona falsa creada por investigadores de Facebook para ver qué tan rápido los algoritmos de la red social atraían a los usuarios a la’ madriguera del conejo ‘del extremismo político. El documento fue filtrado por una ex empleada de Facebook, Frances Haugen, y se compartió con los medios de comunicación, incluidos NBC News y el New York Times.

Al hacer la vista gorda ante QAnon, «Facebook literalmente ayudó a facilitar un culto», dijo a NBC Renee DiResta, investigadora de «contenido maligno» en el Observatorio de Internet de Stanford.

La red social restó importancia a las acusaciones y dijo que «Carol» era «un ejemplo perfecto de la investigación que hace la empresa para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar QAnon de la plataforma». La compañía comenzó a eliminar grupos asociados con QAnon en agosto de 2020.

Las filtraciones de Haugen han sido proclamadas por los críticos de Facebook, que lo acusan de ser demasiado lento y restringido a la hora de anular el contenido dañino en su plataforma. El gigante tecnológico ha rechazado las acusaciones en términos generales, diciendo que sus políticas y estudios internos han sido caracterizados erróneamente por reporteros sesgados. La afirmación de que la falta de censura en Facebook finalmente condujo al motín del 6 de enero en Capitol Hill es uno de los principales cargos contra la empresa.

El experimento con «Carol» no reveló nada nuevo para Facebook, ya que investigadores independientes han realizado sus propios estudios en la misma línea. Y este tipo de polarización política impulsada por algoritmos no se limita a los fanáticos de Donald Trump. Los usuarios falsos de izquierda también han sido alimentados con memes de «baja calidad» y desinformación política, según el Times.

Sin embargo, encaja perfectamente con los objetivos de aquellos que quieren que Facebook y otros sitios de redes sociales con sede en EE. UU. Aumenten las restricciones sobre el tipo de discurso permitido en sus plataformas y la aplicación de las reglas. Parte de este impulso proviene de los propios empleados de Facebook, como Haugen, especialmente después de los disturbios del 6 de enero.

«Desearía sentir lo contrario, pero simplemente no es suficiente decir que nos estamos adaptando, porque deberíamos habernos adaptado hace mucho tiempo», escribió un empleado después de que partidarios de Trump irrumpieron en el edificio del Capitolio, según lo citado por el Times.

«Había docenas de grupos de Stop the Steal activos hasta ayer, y dudo que se hayan escabullido en palabras sobre sus intenciones», agrega el mensaje, refiriéndose a la afirmación de que Joe Biden no ganó las elecciones presidenciales de manera justa, una afirmación que el ex presidente Trump lo ha hecho en repetidas ocasiones, lo que finalmente resultó en su expulsión de varios sitios de redes sociales que lo acusaron de incitar a los disturbios del 6 de enero.

Facebook está acusado de tener un patrón de no suprimir de forma preventiva el contenido dañino y solo prestar atención a los movimientos indeseables después de que crecen, aunque su administración afirma que despliega muchos recursos para identificar y tratar este tipo de problemas.

La vigilancia de contenido coloca a cualquier plataforma en una posición complicada, en la que debe equilibrar la prevención de daños con la libertad de expresión. Los gigantes tecnológicos se han visto sometidos a una mayor presión desde 2016, cuando, según los críticos, permitieron que Rusia se entrometiera en las elecciones presidenciales y ayudaron a Trump a ser elegido. Moscú niega haber interferido o «entrometido» en los asuntos internos de Estados Unidos.

Los defensores de la censura advierten que la falta de acción conduce a la polinización cruzada y sinergias entre varios grupos marginales, dijo NBC. Los partidarios de QAnon tienen vínculos con los escépticos de las vacunas, y juntos pueden atraer a otros, como misóginos «incel» y «agentes de desinformación», como lo describe el medio, para aumentar su número y su fuerza.

Mientras tanto, Facebook continúa buscando formas creativas de reprimir el discurso no deseado en su plataforma, mientras se mantiene en el lado derecho de la Primera Enmienda. Uno de los últimos proyectos, que fue descrito por NBC, se llama «Drebbel», en honor a un inventor holandés del siglo XVII.

El grupo Drebbel está analizando los grupos ahora desaparecidos de los creyentes de QAnon y los anti-vacunas para saber cómo lograron atraer a millones de usuarios de Facebook. Esperan poder establecer las características de un «grupo de entrada» en estas redes y establecer sistemáticamente obstáculos para mantener a los usuarios alejados de los movimientos específicos.

“Las uniones grupales pueden ser una señal y un camino importante para las personas que se dirigen hacia comunidades dañinas y disruptivas”, afirmó el equipo de investigación en una publicación en el tablero de mensajes corporativos. «Interrumpir este camino puede evitar daños mayores».

Las filtraciones y el testimonio de Haugen en el Congreso dieron un impulso al caso para un mayor control del gobierno sobre las redes sociales. Queda por ver si las medias tintas, como la limitación de la atención del usuario, saciarán a los críticos de Facebook o si se exigirán medidas más drásticas.

Fuente