Un estudio advierte de los “sesgos” y la “manipulación de los evaluadores” en el sistema de notas de la comunidad

estudio notas comunidad
Tiempo de lectura: 4 min

La Universidad de Cornell (Ithaca, Nueva York) ha publicado esta semana un estudio que afirma que las notas de la comunidad “son vulnerables a los sesgos y la manipulación de los evaluadores”. El informe se basa en “datos simulados” que modelan “comportamientos realistas de evaluadores y notas”. 

Publicidad
  • El sistema de notas ya lo han integrado plataformas como X, Meta y TikTok, aunque las dos últimas solo en Estados Unidos por el momento. 

Cómo funciona el sistema. Las notas de la comunidad funcionan mediante “consenso”, tanto en X como en las otras plataformas que están realizando pruebas en Estados Unidos. Es decir, los usuarios escriben una nota en un post y esta no se publica hasta que un número determinado de colaboradores la consideren “útil”. 

  • X y Meta concretan que estos colaboradores tienen que haber estado en desacuerdo en publicaciones previas para “evitar sesgos”. 
  • La investigación de Cornell señala, por su parte, que hay una evidencia empírica “limitada” de que efectivamente las notas reduzcan los sesgos.
notas de la comunidad desinformación
Publicidad


La eficacia de las notas. La investigación refleja que alrededor del 40% de notas útiles no se publican, lo que se traduce en que los autores de estas notas, al no recibir recompensa por su trabajo, dejan de contribuir.

Por otro lado, las notas de la comunidad permiten a los colaboradores seleccionar el contenido que refleje sus intereses para decidir escribir notas. Para los investigadores, esto puede resultar en que los autores de las notas “recurran a fuentes inconsistentes”. 

  • Por ejemplo, usuarios de X pueden proponer notas de la comunidad utilizando como fuente una respuesta de Grok, la inteligencia artificial de la red social, y que se califiquen como útiles. Como contamos en Newtral.es, Grok no es una fuente fiable y puede cometer errores

También existen “restricciones de visibilidad”. El estudio explica que entre enero de 2021 y el mismo mes de 2025 en X solo se publicaron el 8,3% de las notas de comunidad en un tiempo medio de 26 horas. En Meta, solo el 6% de las notas fueron finalmente publicadas. 

Publicidad
  • Asimismo, aun cuando se muestran las notas útiles, estas reciben “mucha menos visibilidad” que las publicaciones dudosas, señala la investigación de Cornell. 

Por ejemplo, un estudio de 2024 del Centro para la Lucha contra el Odio Digital (CCDH por sus siglas en inglés) sobre el sistema de notas en X en relación con las afirmaciones electorales estadounidenses, determinó que el 74% de las publicaciones engañosas de su muestra, y que además tenían notas de la comunidad “precisas”, nunca se mostraron a los usuarios. 

Sensible a los sesgos y a los “ataques coordinados”. Los investigadores de Cornell afirman que “el algoritmo suprime una fracción considerable de notas realmente útiles” y que, además, es muy “sensible a los sesgos de los evaluadores”. 

El informe distingue entre los sesgos presentes en “evaluadores honestos”, como la polarización o las preferencias de un determinado grupo, y los “evaluadores malintencionados” que buscan penalizar las notas útiles y “crean ataques coordinados”. 

  • Este segundo grupo es una minoría (entre el 5 y el 20% de los evaluadores), pero son “poco rigurosos” y pueden suprimir “estratégicamente notas útiles, censurando información fiable”.
Publicidad

Soluciones. El estudio asegura que es necesario mejorar los mecanismos del sistema de notas de la comunidad para evitar sesgos y manipulaciones. Para resistir a los ataques coordinados, los investigadores proponen obligar a los usuarios a interactuar con todo tipo de notas “independientemente de sus sesgos”. 

  • También señala, para evitar estos ataques, la necesidad de “un mecanismo de validación externa” para determinar el sesgo de las notas y “etiquetarlas correctamente”. 

(*) Newtral.es colabora con redes sociales como TikTok o Meta en su programa de verificación por terceros, con el objetivo de reducir la difusión de contenido falso. La compañía de Mark Zuckerberg ha sustituido este programa por las notas de la comunidad en EEUU.

Fuentes
  • Estudio ‘Las notas de la comunidad son vulnerables a los sesgos y la manipulación de los evaluadores’ de la Universidad de Cornell
  • Informe ‘Calificado como no útil’ del Centro para la Lucha contra el Odio Digital (CCDH por sus siglas en inglés)
  • Nota de prensa de TikTok
  • Nota de prensa de Meta
  • Página web de las notas de la comunidad de X
  • Artículos de Newtral.es

0 Comentarios

¿Quieres comentar?