La carrera tecnológica para identificar deepfakes es una competición entre los algoritmos de creación y los de detección, en la que estos últimos siempre van en segundo lugar, según los expertos consultados por Newtral.es.
¿Un modelo para detectar todas las técnicas? Según explican Javier Huertas y Helena Liz-López, investigadores de la Universidad Politécnica de Madrid, los detectores existentes solo ofrecen buenos resultados detectando imágenes generadas por los modelos para los que han sido entrenados.
Pero no existe un detector universal que pueda identificar imágenes creadas mediante cualquier técnica, y los modelos de creación surgen a un ritmo mayor que los de detección.
- A esto se añade la dificultad de que un modelo de detección, para ser efectivo, se debe entrenar con una gran cantidad de deepfakes ya creados.
Como explica Aruna Sankaranarayanan, investigadora en el laboratorio de IA del MIT (Massachussets Institute of Technology, EEUU) es imposible que la tecnología de detección de deepfakes vaya por delante de la de creación, ya que la primera necesita a la última para poder evolucionar, por lo que siempre va un paso por detrás.
Para ilustrar este modelo, hemos escogido imágenes de nueve personas, sacadas de Internet.
Sin embargo, ninguna de ellas es real.
Todas estas imágenes son fruto de la IA y las hemos extraído de la página ThisPersonDoesNotExist (esta persona no existe), que genera caras mediante redes generativas antagónicas.
Los modelos de GAN llevan más de dos años circulando por la red, y aunque no sean los más avanzados, solo uno de los seis detectores de IA que hemos probado ha logrado identificar todas las imágenes como falsas con un 99% de certeza. .
Un nuevo estándar en la industria para detectar modificaciones
Varias grandes empresas tecnológicas como Adobe, Meta, Microsoft, OpenAI o Google, se han unido para crear el sistema C2PA para certificar el origen de cualquier archivo y los cambios que haya sufrido.
- Google anunció el pasado septiembre que incluirá próximamente este sistema en sus resultados de las búsquedas de imagen. Si una foto incluye metadatos C2PA, el usuario podrá ver si fue creada o editada con herramientas de inteligencia artificial.
¿Cómo funciona este sistema? Según explica Javier Huertas, se trata de un sistema de certificados digitales: “Cuando se crea la imagen se certifica y cada vez que el sufre una transformación se crea una nueva certificación, haciendo una cadena desde el origen de la imagen hasta el estado actual. Si la cadena no existe o no se puede trazar se puede alertar de que es posible que la imagen haya sido alterada”.
La postproducción como método para dificultar la detección de deepfakes
El último paso en la elaboración de deepfakes no requiere modelos de inteligencia artificial, sino editores de vídeo o imagen tradicionales. Según Sankaranarayanan, la postproducción es una parte clave del proceso para lograr que un deepfake sea difícil de detectar. En este último paso se “pulen” los fallos, más allá de la técnica utilizada.
Los errores más comunes. Algunos modelos de generación de vídeo pueden tener problemas, por ejemplo, generando partes del cuerpo complejas como manos, dientes u orejas, o haciendo que la gente parpadee con una frecuencia a la que lo haría una persona real.
- Todos estos errores se pueden arreglar con un editor de vídeo tradicional.
Otro paso importante en la postproducción consiste en rebajar la calidad del archivo generado. Al reducir la definición del vídeo o la foto se pierden detalles que podrían revelar su naturaleza artificial, tanto para el ojo humano como para un sistema de detección.
En el siguiente ejemplo, otro deepfake verificado en Newtral.es, se observa cómo el vídeo falso presenta menor calidad que el original, disimulando que el movimiento de la boca de Isabel Díaz Ayuso, presidenta de la Comunidad de Madrid, no coincide exactamente con su discurso.

Con ilustraciones de Sandra Vilches y animaciones de Ignacio Arasanz.
- Aruna Sankaranarayanan, investigadora en el laboratorio de IA del Massachusetts Institute of Technology
- Javier Huertas y Helena Liz-López, investigadores en el grupo AIDA (Applied Intelligence and Data Analysis Group) de la Universidad Politécnica de Madrid.
- Generation and detection of manipulated multimodal audiovisual content: Advances, trends and open challenges. H. Liz-López et al. 2024
- C2PA.org
- Google Blog
0 Comentarios