Una de las cuestiones que más tiempo nos ha hecho perder en Twitter, y más controversia ha provocado, son las distintas “sanciones” sufridas por sus usuarios que objetivamente no tienen sentido alguno. Hoy voy a intentar explicar cómo funciona la moderación en Twitter y por qué suceden esas sanciones.
Las redes sociales utilizan una combinación de automatismos, lo que llamamos flagbots, y personas para su moderación en las redes. Desbordadas por el contenido que diariamente subimos a ellas no tienen capacidad material de examinar si todo lo que se sube cumple con sus acuerdos de servicios, o su “línea” aceptable, por lo que los automatismos fueron creciendo en su uso.
Pero no son perfectos. Al contrario. Al principio de los tiempos, en los foros y chats anteriores a las redes sociales, era una persona la que te advertía, y normalmente en privado, si uno se estaba pasando de la raya. Ahora cada vez más la intervención humana en estos procesos es menor. La razón es simplemente que es más cara.
Por tanto, esa combinación en las moderaciones se suele agrupar en niveles. Un nivel 0, por ejemplo, es totalmente automático. Un nivel 1 requiere que se examine el contexto y se tome una decisión, y un nivel 2 requiere una especialización y conocimientos que solo se utiliza para resolver cuestiones policiales y legales. Así funcionan las redes. Twitter no es una excepción. Hoy les hablaré del nivel 0.
Moderación, Twitter y ‘flagbots’
Los flagbots tienen además una pega. Cuando se lanzan a investigar lo que subimos utilizan la Inteligencia Artificial para “aprender” lo que está bien o está mal. Cualquier modificación en esos procesos de decisión requiere un nuevo aprendizaje. Y dirán ustedes, ¿y cómo aprenden? Pues lo hacen a costa de usuarios inocentes. Los procesos de moderación siempre empiezan por ser lo más restrictivos posible, es decir, generando muchos falsos positivos de usuarios inocentes, y luego refinándose en sus resultados.
Durante ese proceso son los usuarios los que sufrirán las consecuencias de bloqueos, suspensiones y demás inconvenientes. Usuarios inocentes, porque ya les adelanto que estos moderadores virtuales se equivocan mucho. Además, hay que reseñar que la “reputación” de un usuario señalado por estos no termina de ser “limpiada”. Cada falta que se le atribuya, sea real o no, pasa a un historial que será tenido en cuenta si vuelve a ser señalado. Esto es lo que en Twitter conocemos como la política de los strike. Cada strike conlleva una “pena más dura”. Bloqueos de 24 horas, una semana, etc.
Otro inconveniente de los sistemas automatizados son las “faltas” que localizan. Normalmente estas son detonadas por una lista de palabras permitidas o no. Pero si un humano examina el contexto porque sabe perfectamente que el sentido y significado de las mismas varía según el tono, en las redes este tono no existe. Por tanto, el resultado son muchos falsos positivos que conducen a castigos a inocentes.
Supongo que a estas alturas más de uno de ustedes entenderá casos que todos hemos visto de personas que bajo ningún motivo debieron ser castigados y lo fueron muy duramente. Humoristas, tuits antiguos sacados de contexto, etc.
¿Es culpa de los automatismos?
Pero no culpemos solo al nivel 0 y a los automatismos de de los problemas de la moderación en Twitter. Es algo más complejo. Cuando las redes empezaron a usar flagbots se percataron rápido de los fallos que tenían, y añadieron una solución de emergencia. Dijeron: si se equivocan tanto, dejemos el peso y el trabajo a (redoble) los usuarios. Trasladaron el peso de la moderación a sus propios vigilados.
Pero como ya he explicado esa es muy mala idea, porque si bien los sistemas de moderación deberían de protegernos y ser utilizados como defensa personal (si alguien nos acosa, insulta, etc.) finalmente fueron utilizados como armas por grupos para atacar a otros grupos. Personas que se dedican a aportar nada a la red social o a la comunidad, excepto la persecución de otros que no piensen como ellos. Esto es el origen de esos grupos que persiguen cuentas de ideologías determinadas. Cualquier tema con confrontación tendrá el suyo. Y fue tal el error que dejó que floreciera incluso un negocio alrededor de ello. Sí, hay gente que paga por eliminar adversarios. Sin duda.
Este panorama condiciona los contenidos de las redes y sus usuarios de tal manera que muchas veces no nos paramos a reflexionar sobre sus consecuencias. Un usuario inocente castigado intentará que no vuelva a ocurrir lo mismo. Intentará no hablar de ese tema, o utilizar esas palabras, o vaya usted a saber. Pero no está intentando evitar algo malo, porque no hizo nada que fuera malo, sino que intentará evitar lo que un Bot creyó que era malo en el mejor de los casos, o lo que un grupo contrario cree que es malo, en el peor.
Esto condiciona tanto las redes que el debate desaparece dejando su sitio a las batallas campales a las que estamos acostumbrados. Dejaremos de hablar de ese tema, usar esas palabras, o mencionar a las personas a las que mostramos nuestro desacuerdo, o de apoyar a personas que están atacadas simplemente por el “miedo” a perder nuestra cuenta. En el otro extremo están quienes tienen asumido esto como un juego y utilizan la red una y otra vez para jugar a eliminar rivales.
Moderación y castigo en Twitter
El “castigo” es un condicionante muy utilizado en las redes sociales. Si uno fue “castigado” por spam por utilizar tal o cual término dejará de usarlo. Si lo fue por “datos privados” dejará de escribir hasta su propia dirección de correo. Es como una cadena que no cesa. Es tal la paranoia que vivimos en las redes, y en particular en Twitter, que ya no solo observamos lo que escriben los demás para señalarlo, sino que el mero hecho de que alguien te siga o sigas a alguien provoca ansiedad por si fuera “un espía que viene a reportarme”. Una locura.
Todo, finalmente, afecta a la calidad de la red social. Quizás empecemos a comprender porque algunas, Twitter en especial, está tan degradada. No les quiero cansar con más explicaciones. Pero si realmente este tema les interesa hablaré próximamente del papel humano en todo esto. Los servicios de nivel 1 y 2. Algo absolutamente reprobable el cómo funcionan.
Como siempre análisis con rigor y reflexión de la máxima calidad por parte del señor M.