En los últimos meses nos habéis preguntado en varias ocasiones a través de nuestro servicio de Whatsapp por vídeos falsos que siguen un mismo patrón: una voz robótica narra un relato ficticio sobre uno o más líderes políticos mientras se muestran imágenes de los protagonistas de la historia en bucle.
- Estos vídeos, que en algunos casos acumulan cientos de miles de visualizaciones, comparten tres principales características: historias falsas, una narración con voz sintética e imágenes generadas con inteligencia artificial (IA).
Voz sintética. Las historias ficticias están narradas por una voz que suele sonar robótica y monótona. Esta voz, con indicios de estar generada por IA, suele ir acompañada de subtítulos.
- En ocasiones, el uso de inteligencia artificial se puede detectar por los errores en la narración sintética, como un vídeo que se refirió a Ursula Von der Leyen como “presidenta Legend” y “Ursula uve Legend” (minutos 2:24 y 5:22).
Imágenes generadas con IA. Estos canales suelen utilizar vídeos y fotografías de los políticos mencionados creados con IA para ilustrar la portada o para acompañar a la voz en off durante los primeros segundos:
- Sabemos que es IA porque las imágenes contienen varios errores comunes en los contenidos generados con esta herramienta, como los textos ilegibles. Por ejemplo, en uno de los vídeos se puede leer “GURRDIA (sic) CIVIL” en la espalda de un presunto agente de la UCO.
- Además, algunos de los vídeos cuentan con un aviso de YouTube que dice: “Contenido alterado o sintético. El sonido o las imágenes se han editado de forma significativa o se han generado digitalmente”.

Historias ficticias. La mayoría de vídeos de estas cuentas generan titulares e historias sobre políticos con afirmaciones que no han ocurrido, como hemos desmentido en Newtral.es. Estos contenidos presentan una serie de características recurrentes:
- Inconsistencias. El bulo que aseguraba que Giorgia Meloni había “destrozado” a José Luis Rodríguez Zapatero en el Parlamento Europeo afirmaba que el expresidente del Gobierno se encontraba en la cámara europea, pero posteriormente mencionaba que el expresidente seguía la intervención desde “algún despacho en Moncloa”.
- Ausencia de pruebas o fuentes. La mayoría de estos vídeos, como el que aseguraba que el presidente del Consejo Europeo, António Costa, “destruía” a Pedro Sánchez, no citan ninguna fuente ni fechas en las que habrían ocurrido los hechos.
- Imágenes reales de archivo. Las publicaciones sobre políticos españoles y europeos mezclan vídeos y fotografías generados con IA con imágenes sí son reales y muestran a las personas mencionadas en el relato para dar credibilidad a la presunta historia. Es el caso de un vídeo que aseguraba falsamente que la UCO había descubierto cuentas de Begoña Gómez en Marruecos, pero las imágenes que aparecían no eran actuales ni correspondían a la narrativa que están relatando, sino que estaban sacadas de contexto.
0 Comentarios