Algoritma

Cómo se desmontó el ‘deepfake’ de Zelenski, el primero de la guerra contra Ucrania

Imagen original de Zelenski, utilizada como modelo del deepfake
Imagen original de Zelenski, utilizada como modelo del deepfake
Tiempo de lectura: 10 min

El primer deepfake de la guerra de Rusia contra Ucrania ha sido desmontado tan rápidamente que es probable que no te haya dado tiempo a verlo. El caso del vídeo que mostraba a un falso Zelenski rindiéndose nos deja una lección valiosa para futuros intentos de desinformación intencionada.

Publicidad

Un vídeo falso en el que Volodímir Zelenski, el presidente de Ucrania, anunciaba su rendición a Rusia apareció en Facebook y Youtube el 16 de marzo. En él, un Zelenski con un tono de voz diferente pedía a los ucranianos que depusieran las armas y se rindieran a las fuerzas rusas. El vídeo también circuló por Telegram y VKontakte, el símil a Facebook usado en Rusia y controlado por el Kremlin. 

https://twitter.com/Shayan86/status/1504131692411432966?s=20&t=yP9M1DsIsaH8vovCeidwYw
El deepfake se puede ver en Twitter con un sello que muestra su falsedad

El ‘deepfake’ a Zelenski que desmontó el propio presidente

La página web del informativo nacional del canal Ukraine 24 fue hackeada por piratas informáticos que además de hacer un defacement del sitio, alteraron los titulares que aparecían en el cintillo inferior de la transmisión en pantalla, y colocaron allí los mensajes del falso Zelenski. El canal de televisión publicó rápidamente un mensaje en su página de Facebook en la que advertían que habían sufrido un ataque de piratas informáticos y que el vídeo donde Zelenski pedía la recapitulación era falso.

El mismo Zelenski desmontó el vídeo en su canal de Telegram (que tiene más de un millón y medio de suscriptores), en Instagram y en Facebook, apenas minutos después de que la televisión ucraniana denunciara que habían sido hackeados. Lo hizo con un vídeo propio en el que habla a cámara en su móvil y además de negar la rendición, califica como una “provocación infantil” al deepfake. Facebook, Twitter y Youtube revisaron el contenido y retiraron el vídeo inmediatamente, en virtud de sus políticas contra vídeos manipulados intencionalmente.

https://twitter.com/ngleicher/status/1504186935291506693
Publicidad

La Inteligencia ucraniana también publicó rápidamente en Twitter un mensaje advirtiendo sobre la tecnología de los deepfakes

El Centro de Comunicación Estratégica del gobierno ucraniano ya había advertido el 2 de marzo que sus enemigos podrían estar preparando un vídeo deepfake en el que apareciera el presidente Zelenski anunciando su rendición. En el mensaje explicaban que esta tecnología utiliza algoritmos de aprendizaje automático para parecer real y que estos vídeos son casi imposibles de distinguir de los reales. “Lo ves, lo oyes, así que es verdad. Pero esta no es la verdad. Esta es una tecnología de deepfakes”, indicaban.

‘Deepfakes’ políticos

La explicación, además de clarividente, era acertada. Entre los muchos tipos de información falsa en las redes, el deepfake es uno de los formatos más sofisticados. Se llama así a las imágenes, audio o vídeo artificiales (material también llamado synthetic media, medios sintéticos, en inglés) que son manipulados o producidos en su totalidad por inteligencia artificial. Como hemos contado en Newtral, herramientas como Photoshop o los filtros de Instagram son tan populares que estamos familiarizados con sus productos, pero los avances en inteligencia artificial han llevado la manipulación de contenidos un paso más allá, y si están bien hechos los deepfakes pueden ser casi indistinguibles

No es la primera vez que un político se ve afectado por vídeos falsos intencionalmente: ya sucedió cuando Donald Trump ayudó a difundir vídeos alterados de Nancy Pelosi en medio de una disputa política intensa que ambos mantenían en 2019, aunque en ese caso el vídeo no era un deepfake, y sólo se había manipulado la velocidad, haciendo parecer que sus palabras eran más lentas.  

Ese mismo año el Comité del Partido Demócrata hizo un deepfake de su propio presidente, y lo presentó en la DefCon, uno de los eventos más importantes para hackers. El objetivo era demostrar la potencial amenaza de estas herramientas en las elecciones de 2020.

Publicidad

Cómo se hizo el primer ‘deepfake’ de la guerra 

La falta de calidad del primer deepfake intencional para desinformar en esta guerra sin duda ayudó a frenar su expansión. Alejandro Pérez Blanco es el realizador profesional de vídeo detrás de los deepfakes de El Intermedio, el programa de entretenimiento y actualidad en laSexta. “Hace falta ser un sinsangre para creer que va a colar un deepfake literalmente tan desalmado”, dice Pérez Blanco cuando le mostramos el clip del Zelenski falso. Él tampoco llegó a ver el vídeo circulando en redes. 

“Conociendo el contexto, sabiendo la cantidad de imágenes que hay de Putin hablando en una mesa larguísima, solo, serio, por un lado, y por otro de Zelenski conviviendo con sus soldados en camaradería, que encima es actor y sabe hablar y declamar, cuesta poco imaginar que este vídeo ha sido creado por alguien más afín a Putin que a Zelenski”, especula, aunque por el momento no está claro quiénes crearon el vídeo ni con qué motivos. 

El especialista intuye que se ha hecho con un deepfake de audio y otro de imagen. Para ello, han utilizado como referencia las imágenes de declaraciones de un discurso de Zelenski disponible en Youtube, han reconstruido el decorado y han contratado a un actor, lo han vestido igual y lo han iluminado de la misma manera.

Por otro lado, han recogido varias horas de discursos del presidente ucraniano, las han metido en una Inteligencia Artificial capaz de generar voz, y cuando esa IA la ha aprendido, le han indicado el texto que debe decir. Luego han pedido al actor que gesticule en cámara según ese sonido generado, según explica Pérez Blanco.  

La Inteligencia Artificial y las expresiones

La Inteligencia Artificial ya es capaz de generar discursos nuevos a partir de grabaciones (como se hizo con Franco en el podcast XRey), pero si se hace mal se corre peligro de que quede una voz muy plana y sin humanidad, advierte Pérez Blanco. Hay que tener en cuenta que la IA convierte texto a audio, pero no sabe de qué está hablando. Incluso con el pesar de deponer las armas, es fácil ver que Zelenski habría declamado de otra manera. “Incluso leyendo cuidadosamente textos en inglés, Zelenski es más expresivo”, observa el realizador.

Publicidad

Después de grabar al actor, se ha utilizado DeepfaceLab para cambiarle la cara. Este es un programa que está disponible en todo el mundo a través de Github de forma gratuita, aceptando aportes y colaboraciones de otros usuarios, universidades, aficionados y empresas privadas. 

Pero esto ha salido mal, porque el deepface de Zelenski se ve raro a simple vista, aunque necesitemos a un especialista para que nos diga cuáles son los fallos. Perez Blanco ve tres: 

  • El cuello es muy largo y la cabeza muy pequeña. La carga de hombros, la longitud del cuello y la proporción entre la cabeza y el cuerpo dan problemas cuando el doble y el original tienen una edad distinta.
  • La barba está cortada limpiamente y la nuez no está en su sitio. Donde más se nota el deepfake es en el recorte de la barba. Seguramente el doble estaba afeitado.
  • La iluminación se parece pero no es exacta. La cara del deepfake tiene una sombra a la izquierda que no tiene su cuello. 
Imagen real de Zelenski
Imagen falsa

Pérez Blanco señala que se ha hecho un deepfake de toda la cabeza pero no han sabido conectarla bien con el resto del cuerpo. “Creo que, como tenían que sincronizar el audio, se han fijado más en que coincidiera la boca que en todo lo demás”. Los metadatos del vídeo indicaban que se había elaborado sólo dos horas antes de subirlo a Telegram, según informó el Atlantic Council.

Qué hacer en caso de ‘deepfake’ político

La forma en la que el deepfake fue desmontado indica una buena estrategia para proceder con estos productos desinformativos: preaviso, inoculación, detección y rapidez al desmentirlo utilizando redes sociales.

El gobierno de Zelenski ya se había preparado para este tipo de ataques. Había emitido mensajes donde explicaban qué son y cómo funcionan los deepfakes, previniendo a la población antes de que se encontraran con uno. La reacción de la cadena de TV que avisó al instante del hackeo a su web hizo posible la detección a tiempo. 

Una de las claves de la potencia de este tipo de artefactos desinformativos es el momento elegido para soltarlos; pero también el tiempo puede convertirse en una herramienta para desactivarlos. La respuesta rápida de Zelenski, que en cuestión de minutos grabó un vídeo desmintiéndolo, y la agilidad en distribuirlo a través de los canales de redes sociales y mensajería que está usando desde el inicio de la invasión ayudaron a limitar el tiempo en que el fake pudo difundirse sin oposición. 

La colaboración de las plataformas, en este caso Facebook, Youtube y Twitter, fue fundamental, porque quitaron el vídeo a las horas del aviso en cumplimiento de las políticas que tienen sobre vídeos manipulados. La desaparición del vídeo antes de las 24 h hizo que el vídeo ni siquiera fuese traducido o subtitulado a otros idiomas, con lo que probablemente no se expandió por otros grupos lingüísticos.

Cómo se detectó el ‘deepfake’ de Zelenski

¿Qué debemos mirar en un vídeo sospechoso de ser un deepfake? El caso del Zelenski falso nos da algunas pistas:

  • La unión de la cara con el cuello
  • Diferencias de color y dirección de la luz y entre distintas partes del cuerpo
  • Efectos raros en el resto de la cabeza durante un parpadeo:

Además, debemos tener en cuenta otros factores que se usan para prevenir y corregir los posibles fallos de un deepfake. Si están en un vídeo, son razones añadidas para sospechar aunque el vídeo no presente fallos: 

  • Falta de expresividad: Es muy difícil preparar a una máquina como la inteligencia artificial  para que traslade la expresividad del original al doble. 
  • Mirada de frente sin girar mucho: Un deepfake sólo puede reproducir giros hasta donde aparecen en el original. Si se gira más, da problemas. El deepfake de Zelensky no se gira más porque el doble recibió instrucciones para reducir esos problemas de giros al mínimo.
  • Vídeo de mala calidad: Esta degradación sirve para disimular la baja calidad del deepfake, como los fallos del parpadeo mostrados arriba. En un formato tan pequeño, podrían ser tanto del deepfake como de la resolución y la compresión del vídeo. 
Deepfakes, mentiras y vídeo


Deepfakes, mentiras y vídeo

Cuando ya no puedes creer lo que ven tus ojos