Detrás de la red

Redes sociales, moderación , COVID-19 y las teorías de la conspiración

la desinformacion y textos de lectura facil
Foto: Shutterstock
Tiempo de lectura: 5 min

Dentro del seguimiento que hago a la desinformación y manipulación durante la pandemia leo bastantes informes de diversas fuentes intentando contrastarlos con mis datos y conclusiones propias. Hoy voy a comentarles uno de ellos, invitándoles a leerlo para que ustedes saquen, como siempre, sus propias conclusiones. Las teorías de las conspiración tienen al menos tres puntos en común:

Publicidad
  • Hay una conspiración como narrativa principal de una historia. Para la COVID-19, o las derivadas de QAnon, el papel de una “élite oculta” que maneja nuestros destinos en base a oscuros intereses es recurrente.
  • Las teorías de la conspiración generalmente basan su validez en evidencia indirecta o en la ausencia de evidencia. Usar verdades a medias, sacadas de contexto, o directamente la falta de una prueba en algo no significa que lo contrario sea cierto. Esto es muy reiterativo en todas estas narrativas.
  • Las teorías de la conspiración están estructuradas de tal manera que las historias se vuelven irrefutables. Es decir, al no aportar argumentos y tener una línea simple, es muy complicado refutarlas.

Un estudio de una de las escuelas postgrado de la Universidad de Harvard, la Harvard Kennedy School, me ha llamado la atención por su temática. Se trata del elaborado por Papakyriakopoulos, O., Medina Serrano, JC y Hegelich, S. (2020) sobre la difusión de las teorías de la conspiración de la COVID-19 en las redes sociales y el efecto de la moderación del contenido. Revisión de desinformación de la Escuela Kennedy de Harvard (HKS). El estudio se centra en la difusión de las teorías de la conspiración sobre la pandemia en las redes sociales, y el efecto de la moderación de las redes en las mismas. Enmarcado en agosto de 2020, cuando salimos del confinamiento en España y empiezan a aparecer las manifestaciones negacionistas en la Plaza de Colón de Madrid quizás tenga aún más sentido lo que se describe en el mismo. 

11.000 enlaces sometidos a análisis

Para ello usaron algo más de 11.000 enlaces a textos clasificados por su origen, si eran de un medio clásico o de uno alternativo, y de cómo se usaron, si  como de apoyo a teorías de la conspiración o textos utilizados como  “evidencias” de las mismas. Una vez identificadas vieron la expansión que habían tenido en Facebook y Twitter, y en Reddit y 4chan, y tomaron nota de cómo habían sido tratadas por los distintos sistemas de moderación de estas cuatro plataformas en algo más de 267.000 mensajes que las propagaron.

Las conclusiones del estudio en resumen fueron que los contenidos que reforzaban las teorías de la conspiración tenían más difusión y viralidad que las que las desacreditaban, o eran neutrales. También descubrieron que siendo los orígenes de la mayoría de los enlaces estudiados los pseudo medios alternativos (87%), los contenidos que se utilizaron de medios principales para apoyar estas teorías (Fox News o New York Post o Wikipedia,  por ejemplo) recibieron mayor impacto en redes como Facebook o Twitter. Es decir, las teorías de la conspiración se alimentaron claramente de extractos o noticias sacadas de contexto de los medios oficiales que hicieron crecer sus propios delirios. Esto, en mi opinión, es una prueba clara de parte del método utilizado para divulgar desinformación de toda clase, y que es explotado en la manipulación informativa.

El impacto de las teorías de la conspiración

En cuanto al impacto de las moderaciones sobre estos contenidos fue muy desigual. Twitter y YouTube fueron los menos eficientes en retirar esos contenidos, sobre todo en la cantidad de tiempo que transcurrió entre ser encontrados y ser eliminados. Probablemente en el caso de Twitter sea debido a su falta de recursos en la moderación, y en YouTube a la enorme cantidad de contenido que se volcó en esa plataforma.

Publicidad

En Facebook la moderación trabajó en dos líneas: la eliminación del contenido, que quedó a cargo de la propia compañía, y el marcado de contenidos que quedó a cargo de sus fact-checkers asociados. Reseño que esto desmonta una vez más otra teoría de la conspiración en sí misma referente al papel censor que adjudican estos colectivos a los fact-checkers. Quien retira contenido en Facebook es Facebook, no ellos.

Moderación y teorías de la conspiración

Otra de las conclusiones es que el combate contra la desinformación es muy desigual. Ante la avalancha de estos contenidos falsos o manipulados, entre el 50% y el 80% de los mismos simplemente no entró en los circuitos de moderación, y circuló libremente en esas plataformas. Por otra parte, los equipos de moderación actuaron mucho menos contra los medios principales que contra los alternativos, entre un 10 y un 30% de los tratados.

Sin embargo, el efecto de la moderación, tal como dice el estudio, no solo mitiga la propagación de la desinformación en la plataforma propia. Ese efecto en Facebook o Reddit es muy claro, donde más del 90% de contenido que fue marcado por otros no se propagó. En Twitter en cambio solo consiguieron “parar” el 10%. Esto es debido a las propias características de Twitter, donde la difusión a golpe de RT es muchísimo más rápida que en las otras redes, y por tanto muy difícil de parar una vez lanzada.

0 Comentarios

Ya no se pueden publicar comentarios en este artículo.