El tono de la conversación ya no es el mismo en el Twitter 2.0 de Elon Musk: los discursos de odio han aumentado desde su llegada a los mandos de esta plataforma mientras defensores de derechos civiles ven sus cuentas suspendidas sistemáticamente desde hace un tiempo a causa de campañas masivas de denuncias falsas de grupos extremistas. Este tipo de acciones tienen más efectividad en momentos en que Twitter se apoya en la automatización para moderar contenidos.
Menos voces de investigadores y defensores de derechos
Aunque Musk dice estar luchando por la libertad de expresión, las voces de quienes denuncian a negacionistas y extremistas son silenciadas arbitrariamente en esta nueva etapa de Twitter.
Destacados investigadores y periodistas han visto sus cuentas suspendidas después de que troles extremistas enviasen reportes masivos sobre falsas violaciones de los términos de servicio de Twitter. Uno de ellos ha sido Chad Loder, cuya investigación de fuentes abiertas llevó a la identificación y al arresto de un miembro enmascarado de los Proud Boys que había atacado a policías en el asalto al Capitolio.
“La censura actual y las campañas masivas de denuncias falsas no son una anomalía, sino el último movimiento de la guerra de la información en curso”, dice Loder a Newtral.es.
Su cuenta fue borrada de Twitter cuando estaba reportando los resultados de su investigación en torno a una brecha de datos que ha afectado a 5 millones de cuentas de la red social. Loder, que es CEO de una empresa de ciberseguridad y tiene experiencia en esta área, comprobó que los datos que estaban expuestos corresponden efectivamente a usuarios reales, y señaló que posiblemente esta vulnerabilidad corresponda a otra diferente a la conocida a principios de año y que Twitter había reconocido en agosto. Sin embargo, no fue por desvelar esto por lo que Twitter suspendió su cuenta.
Las campañas masivas de denuncias falsas
Aunque algunos usuarios vieron en la difusión de la brecha de datos una posible motivación para su silenciamiento, Loder no cree que esta sea la causa. En conversación vía Signal cuenta cómo operan los grupos de extrema derecha en Twitter para cerrar cuentas como la suya y de periodistas y grupos de investigación pro-transparencia.
Chad Loder fue suspendido en octubre de 2021 por Twitter a causa de una denuncia falsa de Andy Ngo. Ngo es una figura mediática en la extrema derecha estadounidense, que se hizo conocida hace un par de años por propagar teorías de la conspiración antisemitas en redes. Ngo intentó suprimir las publicaciones de Loder en Twitter que lo vinculaban con un grupo ultranacionalista polaco de extrema derecha llamado Falanga. En aquella ocasión, Twitter dio marcha atrás a la suspensión del investigador después de que la Electronic Frontier Foundation (EFF), un grupo pro derechos civiles, presentara una contrademanda en su nombre.
Mes y medio después, Loder volvió a ver desactivada su cuenta, junto con la de otros periodistas después de una serie de reportes por parte grupos de extrema derecha. Una vez más Twitter tuvo que reinstaurar las cuentas tras comprobar la existencia de una campaña masiva de denuncias falsas.
Ngo también había participado indirectamente en una demanda que había puesto un miembro de los Proud Boys contra Loder, que había tuiteado pruebas de su presencia en el Capitolio durante los disturbios del 6 de enero. Mucho material de la investigación forense de Loder fue utilizado por la policía para identificar a los atacantes. El tribunal dio la razón a Loder, y los cargos por varias denuncias que le hicieron otros extremistas han sido desestimados.
Hace unas semanas Ngo logró captar la atención de Musk en un intercambio en Twitter, quien le invitó a decirle directamente a él qué cuentas debían ser suprimidas. Unas horas después, la cuenta de Chad Loder volvía a estar suspendida en Twitter.
La ausencia de este tipo de voces ha provocado un cambio en la conversación pública cada vez más notorio en Twitter, una red en la que había más libertad de expresión que en otras, según el investigador. “Aunque Twitter estaba lejos de ser perfecto, ha sido una de las últimas grandes plataformas que permitía a grupos inclinados a la izquierda publicar y organizarse. Facebook e Instagram han borrado sistemáticamente publicaciones relacionadas con la izquierda durante una década”, lamenta Loder.
Una incierta política de moderación
Los vaivenes del Twitter de Musk en torno a las políticas de moderación se suceden y no está claro cómo esta plataforma va a cumplir con las medidas que se le requieren desde regulaciones como la Ley de Servicios Digitales europea (DSA), sobre todo en lo que toca a sus responsabilidades contra la desinformación como espacio de conversación pública y para vigilar que no se vulneren derechos de sus usuarios.
La salida de Twitter de la mayor parte o totalidad de empleados en áreas dedicadas a luchar contra la desinformación, a la comunicación y a la moderación de contenidos fue el principio de esta serie de cambios. Las áreas más afectadas por los despidos incluyeron las de confianza y seguridad, políticas públicas, comunicaciones, moderación de contenido, y ética de la inteligencia artificial.
Su nuevo dueño ha tomado la decisión de restaurar cuentas suspendidas después de hacer una encuesta en Twitter, con lo que muchos negacionistas, desinformadores y usuarios que habían cometido violaciones contra los términos de uso han vuelto a publicar en esta plataforma. Musk ya había amnistiado a Donald Trump días antes con el método de la encuesta, devolviéndole el derecho a publicar en su cuenta.
En sus primeros días, Musk también anunció cambios en el proceso de verificación de cuentas, al que se puede acceder a partir de entonces a través de un pago de 8 dólares, por medio del servicio de suscripción Twitter Blue. La medida ha sido aprovechada desde entonces por promotores de la teoría de la conspiración QAnon, que han visto en ella una forma de recuperar presencia en la plataforma.
Una investigación de un desarrollador berlinés llamado Travis Brown analizó 137.000 cuentas con suscripciones a Twitter Blue entre el 10 y el 15 de noviembre. Encontró que la mayoría correspondía a actores para público adulto, a influencers de la extrema derecha y a parodias o cuentas falsas.
La situación ha llevado a tres miembros del consejo de confianza y seguridad de Twitter a renunciar con pesar. Lo hacen “porque los resultados de las investigaciones demuestran que, contrariamente a lo que afirma Elon Musk, la seguridad y el bienestar de los usuarios de Twitter están en declive”. En el comunicado que han publicado, dicen que una pregunta les ronda la cabeza “¿Debería permitirse a Musk definir la seguridad digital como lo ha hecho con la libertad de expresión? Nuestra respuesta es un rotundo no”.
La automatización usada como arma
La moderación de contenidos en Twitter se está apoyando en gran medida en la automatización, y se han dejado de hacer revisiones manuales, según ha declarado a Reuters Ella Irwing, su nueva responsable de confianza y seguridad. Las nuevas medidas también favorecen las restricciones a la distribución en lugar de eliminar directamente ciertos discursos o desinformaciones de la conversación pública en Twitter.
Loder dice que “Twitter, como todas las plataformas comerciales que buscan ganar dinero, siempre ha sido vulnerable a ser capturada por oligarcas”, y señala que las campañas masivas de denuncias falsas de grupos de extrema derecha han logrado prohibir desde hace tiempo a grupos de investigación y protransparencia que publicaban en la red. Al haber menos revisiones manuales, la automatización de las suspensiones puede ser utilizada en favor de acciones de este tipo.
A fines de noviembre de 2021, Twitter anunció una nueva política relacionada con el consentimiento de las imágenes destinada a evitar el acoso de colectivos, que también resultó ser contraproducente. A los pocos días, la compañía admitió que esta nueva medida estaba siendo utilizada como un arma por parte de grupos de extrema derecha para silenciar voces de activistas de izquierdas, investigadores OSINT (uno de los señalados, Bellingcat) y periodistas que denunciaban a antivacunas, negacionistas y a los sediciosos del Capitolio. Twitter dijo que “una cantidad significativa de actividad coordinada y maliciosa” llevó a “varios errores” en las medidas que tomó la plataforma.
Los exmiembros del consejo de confianza y seguridad de Twitter que acaban de renunciar dicen que la moderación automática de contenidos traiciona el compromiso que tenía Twitter de alejarse de un enfoque estadounidense-centrista de la seguridad de los usuarios, de una mayor colaboración entre regiones y de la importancia de contar con personas de gran experiencia en el equipo de seguridad. “Los sistemas algorítmicos sólo pueden llegar hasta cierto punto en la protección de los usuarios contra el abuso y el discurso de odio en constante evolución antes de que se hayan desarrollado patrones detectables”, explican.
A raíz de las suspensiones, los resultados de la investigación de Loder y otros expertos ya no son accesibles en Twitter, lo que. Desde su veto, Loder ha seguido publicando activamente en Mastodon, y dice que toda la comunidad de expertos en ciberseguridad han migrado a esta red. La instancia infosec.exchange, dedicada a temas de seguridad de los sistemas de información ha pasado de 180 a más de 35.000 usuarios en las últimas 4 semanas.
La conversación cambia: Aumento de los discursos de odio
Antes de que Elon Musk comprara Twitter, los insultos raciales hacia los afroamericanos se producían en promedio 1.282 veces por día en esta red. El número subió a 3.876 veces por día cuando Musk asumió la dirección. Los agravios hacia los hombres gais se contaban en Twitter en 2.506 veces por día en promedio antes de Musk. Después, este número ha pasado a ser de 3.964 veces diarias. Las difamaciones dirigidas a los judíos o el judaísmo crecieron más de un 61% en las dos semanas posteriores a que Musk adquiriera la plataforma.
Estas son conclusiones de estudios hechos por el Centro para Contrarrestar el Odio Digital (Center for Countering Digital Hate), la Liga Antidifamación y otros grupos que estudian plataformas online, que muestran el cambio en los discursos de este espacio público digital. Los expertos explican que aunque los números sean relativamente bajos, los aumentos han sido atípicamente altos.
La Unión Europea, en la evaluación anual que realiza sobre el cumplimiento del código de conducta suscrito por varias plataformas de redes sociales, ha encontrado que Twitter ha tardado más en revisar contenidos de odio en 2022, y ha quitado menos cantidad de los mismos con respecto al año pasado.
- Chad Loder, investigador OSINT y cofundador de Habitu8
- New York Times, Hate Speech’s Rise on Twitter Is Unprecedented, Researchers Find
- Rolling Stone, How a Right-Wing Troll Managed to Manipulate the Mainstream Media
- Reuters, Exclusive: Twitter leans on automation to moderate content as harmful speech surges
- Daily Dot, Andy Ngô keeps reporting people on Twitter who post this very real photo of him standing by far-right graffiti
- CNN, Right-wing activists are openly ‘weaponizing’ Twitter’s new private media policy
- The Intercept, A Right-Wing Brawler Asked a Court to Protect Him From an Antifascist’s Tweets
- The Intercept, Left-Wing Voices Are Silenced on Twitter as Far-Right Trolls Advise Elon Musk
- New York Times, Adult Performers, Trump Supporters and Parodies: Who is Paying for Twitter?
- Net Family News, Members of Twitter’s Trust & Safety Council Resign in Protest Against Elon Musk’s ‘Safety’ Messages to Date