Los Facebook Papers y la amenaza a la democracia

Los llamados Facebook Papers constan de una investigación compuesta de más de 10.000 documentos obtenidos por un integrante del equipo operativo de la empresa, que enseñan cómo Facebook conoce sus fallas en relación con la información que le llega a los usuarios y la que extrae de ellos. Son evidentes los daños que ha venido causando con políticas insuficientes. El ineficaz control del discurso de odio y la promoción de la polarización son ejemplos amplios de lo que se evidencia en los documentos. Quien puso a la luz pública los papers fue Frances Haugen, ingeniera informática que en un inicio filtraba información a The Wall Street Journal, y que perdió el interés en la empresa al identificar el desinterés y la abstinencia a actuar frente a prácticas poco o nada éticas de esta en relación con los problemas recién nombrados. Estos documentos enseñan cómo podrían evitarse la desinformación y la generación de odio por las redes de Facebook, ahora llamada Meta, así como se evidencia que se es consciente de la situación (Párraga, 2021).


Se evidencia la forma especial y agravada en la que países poco desarrollados y en posiciones desfavorables se ven afectados principalmente, en comparación con aquellos más desarrollados y con mayor presencia de la empresa. Se critican además las contradicciones de Zuckerberg, el CEO, en sus intervenciones ante el Congreso estadounidense y lo que muestra la investigación. El papel del precario control de Facebook sobre lo que se comparte en sus redes tiene una repercusión en la realidad de todos los países, en unos más que en otros, afectando las decisiones electorales de la población, otras que podrían afectar su integridad física y mental, sus decisiones económicas, entre otras. La cuestión es que el problema trasciende cuando genera afectaciones en el curso normal, por ejemplo, de la democracia en los países.

Recordamos las ocasiones en las que Mark Zuckerberg se ha enfrentado a un conjunto de críticas por temas como el manejo de datos personales y la privacidad de los usuarios de sus redes. Todo comenzó en 2018 cuando estalló el escándalo con Cambridge Analytica, consultora británica especializada en publicidad y política, que resultó en una multa por cinco mil millones de dólares por acceder a datos de los usuarios de Facebook. Se dice incluso que esto influyó en gran medida en la elección de Donald Trump como presidente de los Estados Unidos, pues para su campaña había contratado a la consultora. Consecuentemente, el CEO de la empresa se presentó para comparecer ante el Congreso de Estados Unidos, donde aceptó haber tenido culpa de lo ocurrido con Cambridge Analytica. Este interrogatorio derivó en el compromiso de Zuckerberg para reformar sus políticas y medidas para proteger el derecho a la privacidad de los usuarios, en anotaciones sobre la posible intromisión de rusos en las elecciones ganadas por Trump mediante la explotación de la red social, la posibilidad no tan aceptada de ser regulada externamente siguiendo regulaciones como la de la Unión Europea, entre otros (BBC, 2018).

Foto tomada de: NBC News


El porcentaje del lenguaje de odio que se elimina de la red social, según Zuckerberg durante sus intervenciones ante el comité de comercio del Senado estadounidense el año pasado, sería del 94%, mientras que sus investigaciones internas demuestran que este oscila entre el 3% y el 5% (Washington Post, 2021). Además de esto, la desinformación parece ser otro problema grave dentro de la red social, mas no es prioridad de Facebook el atacarla. Aunado a esto, aunque se suponía que se trabajaría en ello tras el escándalo de Cambridge Analytica, la forma en la que el algoritmo decide qué enseñarle al usuario mediante el análisis de las interacciones significativas que la información puede tener, por ejemplo, en relación con tus amigos o temas de interés. No hay certeza entonces de que lo que le llega al usuario es información veraz, sino información que seguramente le gustará recibir. Se presenta así el riesgo de que discursos de odio o que propicien polarización e información falsa o imprecisa se propaguen a lo largo de una ciudad, un país o el mundo entero sin un control representativo.

El estudio “Digital 2021: Global Digital Overview”, realizado por We are social y Hootsuite, revela algunas cifras sobre los usuarios de Facebook y el tipo de alcance que la plataforma tiene. Resaltan dentro de estas: son 2,740 millones los usuarios activos, en Colombia el alcance es de 36 millones de usuarios, son en promedio 11 los clics a publicidad por cada usuario, 5 comentarios y 11 “likes” a publicaciones y una vez en que el usuario comparte una publicación, estas últimas en el plazo de 30 días. El alcance de los mensajes de odio, de la desinformación y de la publicidad focalizada no es para nada despreciable analizando estos datos. Esto, sumado con la forma en que Facebook le permite y dirige a sus usuarios a formar comunidades de personas que piensan igual, tienen gustos similares, comparten ideologías o culto, etc. Se trata de cómo Facebook le hace tan fácil a sus usuarios relacionarse y sentir que todo lo que les agrada llega a ellos sin mayor esfuerzo.

El experto en repercusiones sociales y políticas de la tecnología de la Universidad de North Carolina, Gordon Hull, habla de una presunta filiación política de Facebook y las redes sociales como desestabilizadores de la democracia. No se trata únicamente de cómo las redes le enseñan al usuario lo que le gusta, aquello en lo que cree, sino cómo se crea, en palabras de Hull, un filtro burbuja, que hace que solo le llegue al usuario información de la cual disfruta (Hull, 2018). Este, en realidad, no es el problema, sino que se plantea que se suele sugerir cierto tipo de información. Un ejemplo que podría introducirse es el hecho de que, al revisar el perfil de Donald Trump, incluso estando vetado de las redes de Facebook, al usuario se le recomienda seguir cuentas como las de Ben Shapiro, un reconocido republicano estadounidense.

Desde su interrogatorio, Zuckerberg aseguró estar alarmado por el posible sesgo político que tendría la empresa, esto, dado el alcance que tiene. Realizado su compromiso de proteger la privacidad de los usuarios de las redes de Facebook y expresando su preocupación por los problemas para los que se prestaban estas, el número de trabajadores de la empresa ascendió a más de 58,500 para el 2020, dejando mucho que desear por parte de quienes critican sus prácticas, pues es evidente que tienen un equipo grande y además preparado para crear las medidas necesarias (Fernández, 2021). Quienes han denunciado y abierto el debate sobre las políticas de la empresa, como la misma Frances Haugen, afirman que Facebook ha podido hacer más de lo que ha hecho, que sus empleados han demostrado interés y han alarmado a la empresa y que se ha venido priorizando el crecimiento de la empresa ignorando lo que está en cuestión. De acuerdo con el Washington Post, había formas tan fáciles de identificar posibles publicaciones con contenido de odio o desinformación como revisar si last personas reaccionaban con un emoji enojado, comentaban “wow” o se reían en los comentarios.

Es evidente un control deficiente en países alejados de las zonas desarrolladas, con poblaciones sumidas en la pobreza y que muchas veces hablan en idiomas que los trabajadores de Facebook no manejan. En estos países, además, suelen darse problemas más graves en los cuales las redes han cumplido un papel importante. Un ejemplo cercano, claramente en contextos menos graves de lo que podría ser, es el conjunto de noticias falsas sobre el supuesto poder curativo del agua de un río en el Chocó para tratar la COVID, razón por la cual las personas se aglomeraban para entrar a este, convirtiéndose el espacio en un foco de contagio. Otro ejemplo menos concreto es las olas de publicaciones y comentarios en redes sobre las protestas y las razones por las cuales se hacen, como ocurrió en los últimos meses a lo largo del país, llenas muchas veces de mensajes que incitaban al odio, invitaban a dañar el espacio público, a atacar la fuerza pública o locales comerciales, también bajo argumentos que en ocasiones se nutrían de las llamadas “ fake news”. El alcance de los discursos de odio y de información falsa en países en vía de desarrollo, al parecer, es mayor dado que no se les da importancia y los controles son precarios, cuando son los que más sufren los efectos de dicho contenido.

Foto tomada de: NBCNews


Dicho esto, se podrían justificar las denuncias sobre la posible afectación a la democracia por causa de malas políticas de privacidad y políticas comunitarias de las redes sociales como Facebook e Instagram. Los Facebook Papers han enseñado la abstinencia de los grandes de las redes sociales frente a cuidar los intereses generales a lo largo del mundo, pensando en su propio crecimiento nada más. Se ha tornado la discusión en un debate de lo que se ha podido hacer frente a lo que se ha hecho que, claramente, ha sido insuficiente. ¿Pueden realmente las políticas comunitarias de redes como Facebook e Instagram afectar la democracia en países como Colombia u otros en vía de desarrollo? Las evidencias demuestran que sí.


Nota: La información expresada en este artículo no compromete la voluntad de la Universidad del Rosario ni del Periódico Enclaustrados.



Referencias

BBC Mundo. (2018). Mark Zuckerberg, fundador de Facebook, comparece ante el Congreso de Estados Unidos por el escándalo de Cambridge Analytica. https://www.bbc.com/mundo/noticias-internacional-43720004

Fernández, R. (2021). Número de trabajadores de Facebook en el mundo 2004-2020. Statista. https://es.statista.com/estadisticas/600904/numero-de-empleados-de-facebook/

Hull, G. (2018). Por qué las redes sociales podrían estar dañando la democracia. The Conversation. https://theconversation.com/por-que-las-redes-sociales-podrian-estar-danando-la-democracia-98578

Kemp, S. (2021). Digital 2021: Global Overview Report. Data Reportal. https://datareportal.com/reports/digital-2021-global-overview-report

Lima, C. (2021). A whistleblower’s power: Key takeaways from the Facebook Papers. The Washington Post. https://www.washingtonpost.com/technology/2021/10/25/what-are-the-facebook-papers/

Párraga, N. (2021). ¿Quién es Francés Haugen? La historia detrás de la filtración de Facebook. El Sol de México. https://www.elsoldemexico.com.mx/mundo/quien-es-frances-haugen-la-historia-detras-de-la-filtracion-de-facebook-7299685.html

Smith, D. (2018). Mark Zuckerberg vows to fight election meddling in marathon Senate grilling. The Guardian. https://www.theguardian.com/technology/2018/apr/10/zuckerberg-facebook-testimony-latest-news-regulation-congress

8 vistas0 comentarios

Entradas Recientes

Ver todo