Algoritma

Deepfakes, mentiras y vídeo

Deepfakes, mentiras y vídeo
Deepfakes, mentiras y vídeo
Tiempo de lectura: 15 min

Dicen que si escribes tres veces la palabra deepfake en algún oscuro foro de internet, se te aparece Tom Cruise. O algún otro famoso con extrañas facciones.

Publicidad

Si sabes de lo que hablo, probablemente hayas visto varios de estos vídeos, cada vez más en los últimos meses, y hasta te hayas frotado los ojos con alguno. Si no lo sabes, mira esto y pregúntate si hubieses sabido que no es verdadero si no te lo dijera alguien. 

“Te voy a mostrar algo de magia… Es real”, dice un Tom Cruise falso.

Publicidad

Lo que vemos no es real, y la tecnología de los deepfakes empieza a parecer brujería, parafraseando a Arthur C. Clarke, escritor de ciencia ficción y científico, que dijo que toda tecnología suficientemente avanzada es indistinguible de la magia. 

Si nuestros sentidos pueden engañarnos, parece complicado saber cómo podemos evitar la desinformación y la confusión ante un vídeo que muestra algo que parece verdad. ¿Están los deepfakes tan avanzados? ¿Cómo funciona el proceso de tomar la imagen de una persona y construir una ficción que se mueve?

Qué son los deepfakes

Entre los muchos tipos de información falsa en las redes, el deepfake es uno de los formatos más sofisticados. Hasta ahora estábamos familiarizados con herramientas como Photoshop o los filtros de Instagram que pueden retocar o alterar imágenes, pero los avances en inteligencia artificial han llevado la manipulación de contenidos un paso más allá. 

Los deepfakes son imágenes, audio o vídeo artificiales (material también llamado synthetic media, medios sintéticos, en inglés) que son manipulados o producidos en su totalidad por inteligencia artificial.

Se producen con un modelo computacional que utiliza técnicas de deep learning para producir imágenes en vídeo generadas matemáticamente. Suelen utilizar un tipo de algoritmo llamado red generativa antagónica (o GAN, generative adversarial network).

Publicidad

Se alimenta a un algoritmo con fotos y vídeos de la persona a la que se quiere recrear para lograr un resultado con bastante verosimilitud. La aplicación FaceApp, que se hizo viral en 2019, utiliza por ejemplo algoritmos de redes neuronales especializadas en imagen para envejecer, rejuvenecer o incluso cambiar el género de rostros reales dados.

Tenemos que prepararnos para un mundo en el que ver y escuchar ya no significará creer

Aunque los primeros deepfakes aparecieron hace unos cinco años, y fueron bautizados en 2017 en un foro de Reddit mezclando deep de deep learning (aprendizaje profundo) y fakes (bulos), es en 2020 cuando empezamos a ver vídeos en los que las personas recreadas son prácticamente indistinguibles de las verdaderas a simple vista. 

Cualquiera puede ver que esta tecnología tendrá consecuencias en la forma en que producimos contenidos e interpretamos el mundo. Nina Schick, una autora que ha escrito ‘Deepfakes’, dice que tenemos que prepararnos para un mundo en el que cualquiera puede ser impersonado y en el que cualquiera podrá negarlo todo. Tenemos que prepararnos para un mundo en el que ver y escuchar ya no significará creer. 

Publicidad

El primer deepfake fue pornográfico

La colaboración y el uso de código abierto que impera en la investigación sobre inteligencia artificial hace que los últimos avances y herramientas se compartan en abierto en la red. Y las aplicaciones positivas de esta tecnología animan a inversores privados a impulsar la investigación académica. Todo esto está generando una “revolución del deep learning” como lo llama Schick. Y como toda tecnología en desarrollo, esta suele utilizarse también para lo malo. 

Este es el caso del origen del primer deepfake, que apareció publicado en r/deepfakes, un foro ya baneado en Reddit. Un usuario anónimo lo había creado para postear vídeos pornográficas a los que “pegaba” la cara de actrices de Hollywood.

Ya existían imágenes porno falsas con famosas, pero lo diferente, como describió Samantha Cole, la periodista de Vice que sacó a la luz este foro, es que estas creaciones “se movían, sonreían, guiñaban un ojo y follaban”. 

La mismísima Scarlet Johansson fue una de las primeras víctimas de este tipo de abuso. Hay muchas más. El deepfake se usa hoy principalmente para hacer vídeos pornográficos no consentidos, como determinó un estudio de 2019 de Deeptrace Labs [PDF].

Esta compañía holandesa dedicada a la  ciberseguridad analizó los 15.000 que encontró en internet y determinó que un 96% de ellos lo eran, y que las mujeres, tanto famosas como desconocidas, son las principales afectadas. 

Los efectos del “porno involuntario” -como se le llama a este tipo de deepfakes- son similares a los del porno venganza (difusión de imágenes o vídeos sexuales sin consentimiento) y estos vídeos han sido específicamente prohibido por sitios como Reddit, Facebook o Tiktok.

Helen Mort es una poeta inglesa que descubrió vídeos pornográficos falsos suyos circulando en internet y decidió visibilizarlo. “Me dí cuenta de que nunca sabré quién lo hizo, y decidí dedicarme a crear conciencia”, le dijo a Rodrigo Taramona en un directo de Twitch. Él recordó que su pareja, al enterarse del tema, lo había llamado “colonización digital”, ejercida ahora sobre el cuerpo de las mujeres.

Cuando Cole pudo hablar con el creador de aquel primer deepfake se dio cuenta de que no era un programador ni un experto sino simplemente alguien con afición por estas técnicas. Lo que antes era sólo dominio de expertos en efectos especiales y requería mucho tiempo, especialización e inversión, ahora está al alcance de cualquier usuario de TensorFlow y Keras, plataformas de código abierto para machine learning

Accesible no significa fácil

La tecnología está disponible, pero eso no quiere decir que hacer un deepfake indetectable sea fácil para cualquiera. La creación de un deepfake lleva mucho tiempo de procesamiento de cálculo y sobre todo, de experiencia. 

https://twitter.com/JaneLytv/status/1365362169827762184

El vídeo del DeepTomCruise, colgado en Tiktok y considerado indetectable por la herramienta de SensityAI, fue creado por el especialista en efectos especiales belga Chris Ume, que contó con uno de los mejores dobles de Cruise, Miles Fisher, y reveló que cada clip le ha llevado semanas de trabajo

Así que no, lo de escribir tres veces Tom Cruise y que se te aparezca un deepfake no es real. Al menos de momento.

“No puedes hacer un deepfake así dándole a un botón”, dijo. Ume utilizó el algoritmo DeepFaceLab, uno de los más populares para deepfakes, combinado con técnicas tradicionales de efectos especiales y CGI (imágenes generadas por ordenador) y lleva varios años especializándose en deepfakes

https://www.youtube.com/watch?v=wq-kmFCrF5Q

“No somos más listos, sí más expertos”, resume Ramón Arteman, CEO de Metropolitana, la postproductora detrás del spot de Lola Flores para Cruzcampo, que también es un deepfake.

“Al ser software libre, no hay un manual o alguien que te dé un curso. Van saliendo versiones, con lo que vamos bastante perdidos todos. La virtud que tenemos es que nosotros nos dedicamos a esto, con lo que tenemos más trucos y más experiencia con la manipulación de la imagen”, explica a Newtral.es.

Otros deepfakes: publicidad, política y entretenimiento

Para un spot como el de Lola Flores en Metropolitana han trabajado con un equipo pequeño, de 4-5 personas durante mucho tiempo, algo más de un año. Se comenzó con un proceso de selección, mucho trabajo previo llevado a cabo por 2-3 personas.

Una de ellas continúa con el rodaje y el aprendizaje del sistema y luego entran dos que hacen los ajustes finales. Desde que lanzaron este spot, la demanda de clientes que piden deepfakes ha aumentado, dice Arteman. 

Breakdown o el cómo se hizo el deepfake de Lola Flores para Cruzcampo

Además de los deepfakes sobre gente que no está viva, como el caso de Lola Flores, también los hay con envejecimiento o rejuvenecimiento (técnicas que se utilizaron en la película ‘The Irishman’), o incluir un personaje en un spot cuando el equipo de rodaje está en una ciudad y él está en otra, como un caso que tuvieron a causa de las restricciones en movilidad por la  pandemia. Muchos deepfakes de las postproductoras de vídeo como  Metropolitana son invisibles a simple vista. Y eso está bien, ya que se trata de efectos especiales para una simulación. 

En España mucha gente sabe lo que es un deepfake porque los ha visto en el programa de TV El Intermedio, en su sección “Entrevistas por la cara”, donde el concepto es que pueden entrevistar “a quien les dé la gana”, como nos cuenta la directora del programa, Carmen Aguilera

Llevan un año y medio haciéndolos. Aguilera dice que cuando habló la primera vez con el técnico y vio las posibilidades que tenía, le parecieron “tremendas». La idea que tuvo desde el principio fue que se notase el uso humorístico que quería hacer de esta tecnología. 

Ese tipo de piezas, que duran unos 4 minutos, tienen detrás mucho esfuerzo y recursos. Después de la entrevista que graban el Gran Wyoming y Dani Mateos, el técnico pone a sus  máquinas a trabajar 15 días hasta que incorporan la cara del personaje a los gestos. 

Sobre la respuesta del público, Aguilera dice que no hay malentendidos con la ficción del personaje, pero que el feedback es curioso y le hace mucha gracia. “A estas alturas hay gente que te dice que el maquillador es maravilloso”. Lo atribuye a que la gente “no entiende qué es la inteligencia artificial o el deepfake o cómo se está trabajando con esta tecnología, no sabe a qué atribuirlo y le parece impresionante”. 

El técnico detrás de estas piezas es Alejandro Pérez Blanco, una de las pocas personas que manejan esta tecnología en España. Cuando habló con él la primera vez y Aguilera vio el alcance que tenían los deepfakes, le dijo “O te contrato yo o te contrata el CNI”. Pérez Blanco recuerda el primer deepfake que vio, porque es el que más le ha impresionado. 

La obra, surrealista e inquietante, es de Mario Klingemann. “Se trata de un protodeepfake, digamos, creado unas semanas antes de que se encontrara la fórmula justa y se abriera la caja de Pandora”. Klingemann estaba más interesado en la forma de crear imágenes nuevas que en cambiar caras y estaba explorando la estética capaz de producir la inteligencia artificial (dos ejemplos: 1, 2). 

Pérez Blanco explica su fascinación: “En el momento que lo vi comprendí que el mundo estaba a punto de cambiar, porque podía pulir un poco esa técnica y añadirle arreglos de postproducción y fue cuando empecé a investigar y hacer pruebas”.

Unos meses después Manuel Bartual le preguntó si podría usar esta tecnología para un hilo de ficción en Twitter y a partir de ahí empezó una nueva carrera para él, en la que ha trabajado para Alex de la Iglesia y a la que se dedica 100%. 

El primer uso de vídeos deepfake en una campaña política sucedió en India en febrero de 2020. El día antes de las elecciones de la asamblea en Delhi, dos vídeos del presidente del partido Bharatiya Janata (BJP) con críticas al titular del Gobierno Arvind Kejrival se volvieron virales en Whatsapp, sin ninguna indicación de que fueran deepfakes.

En España, la productora Metropolitana ha recibido una propuesta para hacer un deepfake para la campaña electoral en Cataluña. Algo así como hacer pasar a una persona por otra sin el permiso de esa persona. “No nos metimos porque era un tema complicado legalmente, no había permisos, ni nada”, cuenta Arteman. “Aunque alguien te dice ‘yo me responsabilizaré de lo que pueda pasar’, tú eres su cómplice necesario. Les dijimos que no”, concluye. 

Posibilidades, peligros y delitos

Pregunto a quienes trabajan con deepfakes si suelen tener problemas legales, o si es algo que les preocupa. Arteman dice que en su experiencia en el sector de la publicidad, normalmente las marcas se ocupan mucho de los derechos. Si el mensaje es positivo, como el de Lola Flores, y además tienen el apoyo y los permisos de la familia, que trabajó con ellos en la postproducción, no hay mucho de qué preocuparse. 

Aguilera explica que en El Intermedio el deepfake “es un sketch”, y la única diferencia es que se utiliza tecnología para el sketch. “Es como cuando haces una imitación, sólo tiene intención humorística”. 

Donde los deepfakes están causando mucho daño es a las mujeres víctimas de vídeos pornográficos no consentidos. Sergio Carrasco, abogado e ingeniero informático dice que no conoce casos en España, quitando el bot de Telegram que generaba fotos de desnudos. Cree que por la novedad de la tecnología aún no podemos encontrar antecedentes numerosos pero dada la sencillez creciente de las herramientas, prevé que en el futuro próximo puedan empezar a llegar a los tribunales. 

Los deepfakes no son ilegales en sí mismos, pero pueden cometer delitos que se podrían perseguir por lo penal, lo civil y la vía administrativa. En España es delito por el objetivo, no por la tecnología.

La LO 1/1982, encargada de regular el derecho al honor y a la propia imagen, pese a ser antigua permite el encaje incluso de tecnologías tan novedosas como los deepfakes. Dependiendo del contenido, se pueden cometer delitos contra el honor, injurias o calumnias, entre otros. “Pensemos lo sencillo que resultaría crear un contenido aparentemente generado por la persona, y que en cambio refleje una actuación no acorde a la realidad y que pueda afectar a su honor/reputación”. 

«Sólo por haberlo visto implica que sea cierto. Tienes que ser mucho más crítico porque te estamos diciendo, de alguna forma, que te podemos engañar cuando queramos»

Según Verónica Alarcón, abogada especializada en privacidad, podría considerarse como una vulneración de los derechos fundamentales a la propia imagen, y a la protección de datos de carácter personal (la voz y la imagen por sí sóla ya es un dato personal), e incluso en algunos casos al honor de la persona afectada, quién puede demandar en vía civil.

“Si además quien ha hecho el deepfake obtiene beneficios por la publicidad que hay en las páginas web donde se aloja el vídeo, puede ser un elemento a tener en cuenta a la hora de valorar la cuantía de la indemnización por el perjuicio que ha causado».

¿Qué sucede cuando no se encuentra al autor del mismo? La Ley protege y se puede requerir la retirada del contenido a la plataforma, pero en muchos casos una demanda no prosperará al no poder encontrar a quien lo compartió en primera instancia, dice Carrasco.

“Pensemos en las limitaciones en el acceso a la información conservada por los operadores (sólo para delitos y amenazas graves), que pueden impedir dicha identificación. Diferente es el tema si hablamos de determinados contenidos y las responsabilidades de quienes a su vez contribuyen al daño al honor y a la propia imagen compartiendo con sus contactos (reenviar por WhatsApp, RT en Twitter, por ejemplo) dichos contenidos, pese a no haber sido los creadores en origen. La norma contempla en determinados supuestos la responsabilidad de dichas personas, por lo que recompartir contenidos no es inocuo en todo caso, afortunadamente”.

Arteman comenta que cuando trabajan con deepfakes para ellos es importante hacer “el breakdown”, como llaman a la pieza que explica cómo lo hicieron y que quede claro que esto está hecho de esta manera. “En Youtube tiene más visitas el breakdown que el spot”, comenta.

El mensaje que está detrás es el de ser críticos y que sepas que te pueden engañar. “Creo que cada vez tenemos que ser más conscientes del riesgo. Que no sólo por haberlo visto implica que sea cierto. Tienes que ser mucho más crítico porque te estamos diciendo, de alguna forma, que te podemos engañar cuando queramos. Y puede haber quien lo haga con un espíritu mucho menos transparente que el nuestro”. 

Fuentes

  • Ramón Arteman, CEO de Metropolitana
  • Carmen Aguilera, directora de El Intermedio
  • Sergio Carrasco, abogado
  • Alejandro Pérez Blanco, creador de deepfakes
  • Informe Deeptrace Labs: The State of Deepfakes [PDF]
  • Ley Orgánica 1/1982, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen