El mundo de las redes sociales está en en la mira por haberse convertido en un vehículo para propagar información falsa y mensajes de odio. Y Facebook ocupa el centro de las acusaciones. Semanas atrás un ex ejecutiva de la compañía divulgó informes que aseguraban que los mensajes en Instagram perjudicaban a los adolescentes, pero que la empresa no hizo nada.

Ahora se conoció una investigación del diario The New York Times, que reveló documentación interna de Facebook que rmuestran que la empresa estaba al tanto de que en la previa a las elecciones de Estados Unidos, se estaba difundiendo información falsa en la plataforma. Además, también circulaban mensajes de incitación a la violencia. 

Según el emblemático diario estadounidense, los documentos muestran señales de alarma sobre la desinformación. Allí se apunta que en varias ocasiones trabajadores de la red social advirtieron de la difusión de desinformación y teorías de la conspiración antes y después de las elecciones presidenciales de Estados Unidos.

El informe apunta que dieciséis meses antes de las elecciones presidenciales celebradas en noviembre del año pasado, una investigadora de Facebook describió un acontecimiento alarmante. En julio de 2019, una investigadora de la empresa que estudiaba la polarización realizó un descubrimiento impactante: una cuenta de prueba que hizo para una “mamá conservadora” de Carolina del Norte recibió recomendaciones sobre contenido de teorías conspirativas a una semana de haber entrado a la red social.

De acuerdo a lo que publica The New York Times, la investigación interna detalló cómo la cuenta de Facebook para una mujer imaginaria llamada Carol Smith había seguido páginas de Fox News y Sinclair Broadcasting.

En cuestión de días, Facebook le había recomendado páginas y grupos relacionados con QAnon, la teoría de la conspiración que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de pedófilos demócratas.

Al final de las tres semanas, la cuenta de Facebook de Carol Smith había empeorado. “Se volvió un flujo constante de contenido engañoso, polarizador y de baja calidad”, escribió la investigadora. Luego, realizó experimentos de polarización en una cuenta de prueba de tendencia izquierdista y descubrió que los algoritmos de Facebook la alimentaban con memes de “baja calidad” y desinformación política. 

El dato es que la mujer dejó la compañía en agosto del 2020 y advirtió que Facebook estaba “exponiendo a los usuarios conociendo los riesgos de daños a la integridad” y citó la lentitud de la compañía en actuar sobre QAnon como una razón para su salida. 

“Durante más de un año hemos sabido que nuestros sistemas de recomendación pueden llevar muy rápido a los usuarios por el camino de las teorías y los grupos conspirativos”, disparó la investigadora tras dar el portazo.

Luego de la elección presidencial, el 9 de noviembre, un científico de datos de Facebook comunicó a varios colegas en una publicación interna que se había disparado la cantidad de contenido en la red social que ponía en duda los resultados de las elecciones. Una de cada 50 vistas en Facebook en Estados Unidos, o el diez por ciento de todas las vistas de material político, era de contenido que declaraba el voto fraudulento.

En este sentido, Facebook ha culpado en público al expresidente Donald Trump y a otras plataformas sociales de la proliferación de falsedades sobre las elecciones. A mediados de enero, Sheryl Sandberg, la directora de operaciones de Facebook, dijo que los disturbios del 6 de enero en el Capitolio fueron “organizados principalmente en plataformas que no tienen nuestra capacidad para detener el odio”.

En la misma sintonía, el 6 de marzo, Mark Zuckerberg, director ejecutivo de la empresa, les dijo a los legisladores que la empresa hizo su parte “para garantizar la seguridad de nuestras elecciones”.

Sin embargo, los documentos internos muestran cuánto sabía Facebook sobre los movimientos y agrupaciones extremistas dentro de su sitio que querían polarizar a los votantes estadounidenses antes de las elecciones.

Además, ofrecen nuevos detalles sobre cuán conscientes estaban los investigadores de la empresa, después de las elecciones, del flujo de desinformación que sugería que los votos habían sido manipulados en contra de Trump.

No obstante, algunos estudios internos sugirieron que la empresa tuvo dificultades para ejercer control sobre la escala de su red y la velocidad con la que se propagó la información, mientras que otros informes insinuaron que a Facebook le preocupaba perder interacción con sus usuarios o dañar su reputación. En cualquier caso, queda en evidencia que los propios empleados creían que la red social pudo haber hecho más.