Algoritma

Caso Almendralejo: los ‘deepfakes’ pornográficos y qué puede hacer la ley para proteger a las mujeres

Deepfakes | Lightspring Shutterstock
Deepfakes | Lightspring Shutterstock
Tiempo de lectura: 11 min

“No había escuchado el término deepfake en mi vida antes de esto”, dice Miriam Al Adib, la madre de una de las adolescentes víctimas de las fotos pornográficas alteradas por inteligencia artificial (IA) en Almendralejo. Cuando se habla de los peligros de la inteligencia artificial se hace referencia a la desinformación, a la reputación de políticos o empresas, pero los deepfakes se utilizan mayoritariamente para crear material pornográfico de mujeres sin su consentimiento, como han demostrado varios estudios de Sensity AI que los rastrea desde 2018.

La última muestra de esta arma masiva de última generación al servicio de la violencia machista son las falsas fotos desnudas de decenas de adolescentes de Almendralejo. En este municipio de 30.000 vecinos, unas madres se han organizado para denunciar el acoso que sufren sus hijas. 

Publicidad

A pesar de que los daños causados por los deepfakes afectan de una forma extremadamente mayoritaria a las mujeres, y el pornográfico es el caso más común, los medios se enfocan principalmente en el uso negativo de la IA para la manipulación de elecciones, alteración de la opinión pública, fraudes, y amenazas a la seguridad nacional, según Chandell Gosse y Jacquelyn Burkell, que investigaron este tema. 

Los avances en inteligencia artificial han llevado más allá la manipulación de contenidos, y han puesto al alcance popular cientos de aplicaciones gratuitas para producir en segundos lo que se suele llamar deepfakes o medios sintéticos. La palabra es una mezcla de deep learning (aprendizaje profundo, la técnica de IA que se utiliza para crearlos) y fake (falso), y así los deepfakes son imágenes, audio o vídeo artificiales manipulados o producidos en su totalidad con herramientas de inteligencia artificial. Una búsqueda rápida en internet revela listas de apps que ofrecen “desvestir a cualquiera gratuitamente online”, pero incluso software que es promocionado de otras maneras, como IA para edición o animación de fotos puede ser usado para crear deepfakes pornográficos. 

El primer deepfake fue pornográfico

El primer deepfake apareció en 2017 en un foro de Reddit llamado r/deepfakes, que luego fue cerrado. Un usuario anónimo lo había creado para publicar vídeos pornográficos, creados con técnicas de IA de código abierto en los que “pegaba” la cara de actrices de Hollywood. Como contamos en Newtral.es, ya existían imágenes falsas de famosas desnudas, pero lo diferente, según Samantha Cole, la periodista de VICE que sacó a la luz la existencia de este foro, fue que estas creaciones “se movían, sonreían, guiñaban un ojo y follaban”. 

El estudio más amplio y más citado sobre los deepfakes fue llevado a cabo en 2019 por Deeptrace, una firma de investigación basada en Amsterdam, a pedido de Sensity AI, una compañía de detección de deepfakes. Esa investigación desveló que el 96% de los vídeos deepfakes eran pornográficos y no consentidos, y que su ritmo se había duplicado en un año. “La pornografía hecha con inteligencia artificial es un fenómeno que apunta y daña exclusivamente a mujeres”, objeto del 99% de los vídeos, dice también ese informe. 

Cole, que además de periodista de Motherboard es fundadora de 404 Media, escribió un libro sobre la influencia de internet en el sexo y viceversa, en el que sostiene que la narrativa predominante y en rápida aceleración del sexo en Internet es la del control: quién lo tiene, sobre quién y con qué fines. Se pregunta si controlamos nuestra libertad de expresión sexual, o si somos siquiera dueños de nuestros rostros. El informe de Sensity AI indica que cada vez más las mujeres objeto de estos ataques ya no son sólo las famosas, algo sobre lo que Cole ha advertido desde entonces. 

Publicidad

Las consecuencias de este tipo de ataque están bien documentadas en varios artículos periodísticos y llegan también a la llamada pornovenganza (imágenes íntimas reales compartidas sin consentimiento). Las víctimas, que en muchas ocasiones han tenido que cambiar su nombre o borrar toda su actividad en internet, temen constantemente volver a ser señaladas por la reaparición de esas imágenes. 

Qué dice la ley sobre los ‘deepfakes’ pornográficos no consentidos

Decenas de madres de las menores afectadas han denunciado la difusión de estas imágenes falsas ante la Policía, que ya está investigando y ha comunicado que hay fotos de alumnas desnudas manipuladas por IA en al menos cuatro de los cinco centros de Secundaria de Almendralejo. La Policía Nacional ha identificado a varios menores como presuntos autores de los mensajes y el caso se ha trasladado a la Fiscalía de Menores. 

¿Son estas acciones constitutivas de delito? ¿Qué leyes nos protegen? El hecho de que se haya utilizado IA puede parecer que complica las cosas, pero Borja Adsuara, abogado experto en derecho digital, lo ve claro: no hace falta una ley específica de la IA para esto, así como no hace falta una ley que tipifique ciberestafa para castigar una estafa. 

No hace falta una ley específica de la IA para esto, así como no hace falta una ley que tipifique ciberestafa para castigar una estafa

Publicidad

Por otro lado, hay quienes creen que como no es su cuerpo real, no es su intimidad, pero ya ha habido sentencias en las que se difundieron imágenes vinculadas a la identidad de personas para desacreditarlas. Aunque no eran fotos reales, los jueces consideraron que el daño se había producido igualmente, porque intentaron dañar su imagen y crearon una corriente de acoso. 

“Lo que nos tenemos que preguntar es cuáles son los bienes jurídicos protegidos que se vulneran con estos delitos. Es verdad que se vulnera el honor, la intimidad y la propia imagen de estas chicas, pero para mí hay dos delitos: por un lado el que difunde el material -y quienes redifunden-, y más importante, el delito de acoso, contra la integridad moral de la víctima, que lesiona su dignidad. ¿Por qué hacen eso? Porque usan ese material para humillar públicamente a las víctimas, para añadir comentarios vejatorios”, dice en conversación telefónica con Newtral. 

Armas legales contra los deepfakes pornográficos

Desde 2018 se sabe que el mayor uso de los deepfakes es la pornografía no consentida. ¿Por qué llegamos a 2023 con la sensación de que no tenemos armas contra este tipo de violencia contra las mujeres? “Hay armas contra los deepfakes pornográficos, a mí en este caso me salen al menos cinco tipos penales”, asegura Adsuara. Para él, el que mejor encaja es el delito de pseudopornografía infantil (art. 189 del Código Penal), que sí está tipificado como pornografía, y pseudo significa fake, como estos deepfakes de la IA, como recoge la doctrina de la Fiscalía General del Estado

“Qué más da que sean realistas, si los demás los van a tomar por reales, el daño es el mismo”, dice el experto, que recuerda que ya hay sentencias desde los años 90 por imágenes pornográficas creadas con Photoshop. 

También ve aplicable el artículo 197.1: “El que, para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, utilice artificios técnicos de reproducción de la imagen”, y aquí Adsuara ve el elemento de la IA, y sigue leyendo, “será castigado con las penas de prisión de uno a cuatro años y multa de doce a veinticuatro meses”. El apartado 3 agrega prisión de 2 a 5 años si además se difunden, revelan o ceden a terceros las imágenes captadas ilegalmente, y el artículo 173.1, que fija prisión de 6 meses a dos años para quien inflige a otra persona un daño degradante, menoscabando gravemente su integridad moral. 

Publicidad

Como, además están difundiendo un hecho relativo a esas personas que es falso, cabe el delito de injuria, y además, como se ha conocido el caso de alguien que ha pedido dinero a una de las víctimas para no difundir sus fotos, también hay un delito de amenazas. “Cuando planteas una acusación ante un tribunal abres un abanico de vías, para que luego el fiscal y el juez elijan. Pero vías, yo veo muchas”, indica. 

El problema de las mayorías silenciosas 

“La ola de conciencia que ha habido con este tema es de agradecer”, dice Miriam Al Adib, la madre y ginecóloga que alertó de este tema en redes sociales. Después del primer mensaje en el que llamaba a las madres a denunciar y explicaba a las menores que ellas no tenían nada de lo que avergonzarse, ha agradecido el apoyo masivo que ha tenido. 

Ha hecho varios vídeos en sus redes explicando a los menores varones que estas acciones son graves y pidiéndoles que borren el material pornográfico. “La mayoría de chicos no son conscientes, son una mayoría silenciosa, que se ven metidos en esto. No saben hasta qué punto la actitud pasiva, de chascarrillo, de risa, el daño que provocan a las chicas. Si se lo hacemos saber esto cambiará… Hay que ir a por esas mayorías silenciosas”, ha dicho. 

La reacción de esta madre que se ha dedicado en los últimos días a hacer pedagogía en redes es muy positiva, ya que según Adsuara, uno de los problemas es que no hay percepción de delito en estos casos, y la gente lo toma como un juego que se practica desde el sofá, detrás de una pantalla. En julio de 2019 un bot para hacer deepfakes pornográficos alojado en un canal público de Telegram permitía ganar créditos por los likes que consiguieran las “creaciones” de los usuarios, lo que el Technology Review llamó la gamificación del acoso.  

Falta de percepción del delito

La falta de pedagogía es un problema que reconocen tanto Al Adib como Adsuara. Uno de los chicos utilizó con las adolescentes el mismo argumento que le espetaron a Rosalía, la cantante, cuando aparecieron deepfakes pornográficos suyos, aquello de “no os quejéis que vosotras mismas subís fotos”. Según el abogado, no saben que el límite del sexting o de la publicación de fotos de este tipo es el consentimiento, y como contestó Rosalía, ella es dueña de hacer con su cuerpo lo que quiera. 

Después de avisar a las chicas que no tienen que avergonzarse, y a los padres que deben denunciar, el mensaje más importante según Al Adib ahora va hacia los chicos. Según esta madre, hay tres tipos que son la mayoría: los silenciosos; los palmeros, que los envalentonan; y los ‘risitas’, que se lo toman a broma. Si ellos hubieran cortado esto a tiempo, no habrían perpetuado la violencia y quienes hacen estos delitos se quedarían solos. «A la primera que veas un mensaje de estos, corta. No me vale que estés en un Whatsapp grupal y te quedes callado. Todo eso también daña a las víctimas», dice Al Adib. 

“Lo que tenemos que hacer es pedagogía, que aparte del reproche penal, haya un reproche social, para que esto no se llegue a difundir”, dice Adsuara, que cree que además de la vía penal está la protección civil en la que se puede pedir una indemnización por daños y perjuicios morales, y que se puede pedir de forma prioritaria a la Agencia Española de Protección de Datos que retiren esos contenidos. Esta agencia ya ha empezado a multar a los padres de algunos menores por delitos de este tipo, y según Adsuara esto también hace que los padres empiecen a asumir responsabilidades. “Todos los padres están preocupados por que sus hijos sean víctimas de ciberdelitos pero no porque puedan ser autores de ciberdelitos”, observa. 

Fuentes

1 Comentarios

  • Esas aplicaciones deberían ser ilegales, tanto su existencia como su distribución y su uso.