En 2016 Microsoft lanzó Tay, un chatbot que generaba conversaciones en X. Sin embargo, la multinacional lo cerró en menos de 24 horas después de que los usuarios de la plataforma lo engañaran para que hiciera afirmaciones nazis y alabando a Adolf Hitler. En los últimos meses, varios estudios han detectado que la red prorrusa Pravda está llevando a cabo una estrategia similar: el LLM grooming.
¿Qué es el LLM grooming? En declaraciones a Newtral.es, la investigadora del American Sunlight Project (ASP) Sophia Freuden define esta estrategia como “la colocación de contenidos en línea —principalmente mediante su publicación y duplicación masivas— con la intención maligna de sesgar un modelo generativo para reproducir desinformación y otros contenidos dañinos”.
- “LLM” son las siglas de large language models (grandes modelos de lenguaje, como los que utilizan los chatbots) y “grooming”, el entrenamiento de alguien o algo con una intención concreta.
El término fue acuñado por el ASP en un informe publicado en febrero de 2025 que relaciona este fenómeno con la red prorrusa Pravda, conocida por difundir desinformación contra Ucrania desde la invasión rusa en 2022.
- En un webinar organizado por EU DisinfoLab, Freuden señaló que, en los últimos años, Pravda ha ampliado sus horizontes en cuanto a la difusión de sus contenidos: estos circulan en decenas de idiomas y atacan también a otros países y a sus jefes de Estado.
Audiencias automatizadas. El análisis del ASP revela que Pravda produjo más de 3,6 millones de artículos en 2024, aunque advierte de que la cifra podría ser mayor. Sin embargo, pese a esta gran difusión en tantos idiomas, los artículos apenas tenían audiencia, destacó Freuden en el webinar.
- Basándose en esto, el informe del ASP y una investigación de NewsGuard de marzo de 2025 concluyeron que el objetivo principal de Pravda no es llegar a audiencias humanas, sino “automatizadas” para llevar a cabo LLM grooming.
- En el webinar de EU DisinfoLab, la investigadora puso como ejemplo de estas audiencias los rastreadores web para indexar contenidos en motores de búsqueda como Google (para lograr que los contenidos desinformativos aparezcan entre los primeros resultados) y los algoritmos de scraping que elaboran las bases de datos de las que se alimentan las herramientas de inteligencia artificial.
Chatbots que responden con bulos. Si se parte de un ecosistema “infectado” por contenidos desinformativos (que se han llegado a usar como fuentes en Wikipedia y las notas de la comunidad de X), existen más posibilidades de que los grandes modelos de lenguaje como los chatbots se nutran de dichos artículos y los repliquen en sus respuestas, algo que ya está ocurriendo.
La investigación de NewsGuard analizó el comportamiento de diez chatbots —entre ellos ChatGPT, Gemini y Grok— y los resultados demostraron que estas herramientas responden a los usuarios con narrativas de desinformación prorrusas difundidas por Pravda en el 33% de los casos cuando se les pregunta por temas relacionados.
- En Newtral.es hemos preguntado a ChatGPT por bulos amplificados por la red prorrusa, como el de la supuesta compra de la mansión Highgrove House por parte de Zelenski. Aunque en la respuesta el chatbot lo desmiente, la tercera fuente que cita como relacionada es Pravda, que difunde la desinformación.

El informe del ASP cita los datos de NewsGuard como ejemplo de la estrategia de LLM grooming que hay detrás de Pravda.
- Como recoge NewsGuard, este resultado ya lo dejó entrever el expolicía de Florida John Mark Dougan, relacionado con la red de desinformación prorrusa Storm-1516. “Al impulsar estas narrativas rusas, podemos cambiar la inteligencia artificial mundial”, afirmó Dougan en una conferencia en Moscú el pasado mes de enero.
Riesgos del LLM grooming. Infectar la web y herramientas de IA con desinformación tiene grandes riesgos para el usuario de estas plataformas que van más allá de lo que ocurre en Internet.
Durante el webinar, Freuden destacó que, de la misma manera que lo está llevando a cabo Pravda, otros “gobiernos anti-democráticos, como China, Corea del Norte o Irán, pueden replicar la estrategia”.
- Es decir, que estos agentes podrían difundir desinformación a su favor y en contra de sus oponentes de manera masiva y duplicada que, posteriormente, sirva para nutrir modelos de inteligencia artificial.
- En declaraciones a Newtral.es, la investigadora apunta que otra red prorrusa que podría emplear el LLM grooming es la conocida como “news.ru”. Al igual que Pravda, esta forma parte del sistema Portal Kombat y su audiencia principal es “la población rusoparlante en las zonas libres y ocupadas de Ucrania”, explica la experta.
Freuden también señaló en el webinar que la saturación de contenidos que generan estas redes de desinformación, ya sea en sus webs o cuando los chatbots reproducen estas narrativas, dificulta a los usuarios el proceso de diferenciar lo que es verdadero de lo falso.
- Para la investigadora, esto puede llevar hacia una “desvinculación con la información y los procesos democráticos”.
Freuden señala a Newtral.es que, debido al “poder exponencial que tienen los modelos generativos como los chatbots de inteligencia artificial, así como su aceptación por parte de los usuarios, Internet podría acabar inundado rápidamente con desinformación y otro contenido dañino”.
- La experta pone como ejemplo a los “desarrolladores web” que utilizan esta herramienta para “producir textos para el sitio web”, los “estudiantes e investigadores que obtienen sus fuentes de chatbots”, los artículos publicados en Wikipedia “que citan desinformación” y todas aquellas personas que “se toman al pie de la letra la respuesta de un chatbot”, pese a que no siempre es correcta.
- “Esto podría llevar a la creencia generalizada en narrativas falsas, al nihilismo informativo, a la falta de compromiso político y a un Internet disfuncional”, añade Freuden.
- La investigadora explicó en el webinar que si los usuarios están continuamente expuestos a las narrativas prorrusas que difunde Pravda, “pueden terminar creyéndoselas”, lo que se conoce como el efecto de la verdad ilusoria.
0 Comentarios