Lo que pasa en tu iPhone se queda en tu iPhone, nos decía Apple hace unos años desde una marquesina en Las Vegas. Ya no. El lema que utilizó Apple para burlarse de Google colgando un cartel inmenso los días previos al CES 2019, en la que ponía la privacidad de sus clientes como valor fundamental, se ha convertido en una ironía involuntaria, en un chiste hecho foto.
La compañía anunció en agosto que la próxima actualización de sus teléfonos instalará en todos los iPhones algunas herramientas que son vistas como un problema grave de vigilancia masiva por varios expertos.
Ahora, tras la reacción en contra de expertos, investigadores y defensores de los derechos civiles, la compañía ha lanzado un comunicado en el que aseguran que tras el feedback recibido por parte de clientes, grupos de defensa civil, investigadores y otros, han decidido tomarse más tiempo durante los próximos meses para recoger más aportes y hacer mejoras antes de lanzar estas funcionalidades críticas en relación con la seguridad de los menores.
Update as of September 3, 2021: Previously we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them and to help limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
Update oficial en la web de Apple en lo relativo a su actualización sobre las medidas de protección para niños
La compañía había anunciado que hacia fines de 2021 los iPhone serían actualizados con una tecnología compleja que tiene el fin de localizar imágenes de abuso de menores que los usuarios suban a su servicio iCloud. Otra de las funciones permitirá a los padres prohibir que un menor envíe o reciba cualquier foto que contenga un desnudo a través de su sistema de mensajería. Son parte de un conjunto de medidas con las que la tecnológica quiere actuar en contra de la difusión del material de pornografía infantil, llamado CSAM (Child Sexual Abuse Material).
Las medidas llegaban justo después de que el Parlamento Europeo haya aprobado una excepción a la privacidad en las comunicaciones online. El escaneado se hace en el dispositivo, pero al haber comunicación con la nube de iCloud, según Samuel Parra, abogado, Apple está cubierto por la resolución europea que derogó dos cláusulas de la Directiva 2002/58/CE llamada ePrivacy, que trata sobre la privacidad de las comunicaciones electrónicas.
Qué cambios anunció Apple en la privacidad de los iPhones y las fotos
Hay dos tecnologías principales y diferentes que la compañía tiene previsto instalar en cada dispositivo Apple: una afecta a fotos y vídeos de iCloud, y otra a Messages, en las fotos o vídeos que el usuario envía o recibe a través de los mensajes de texto de los iPhones. Además de eso, Apple monitorizará búsquedas relativas al contenido de abuso sexual infantil.
iCloud: Escaneado automático de imágenes y vídeos
La primera es una función de escaneado de todas las fotos y vídeos que el usuario vaya a subir a iCloud Photos, el servicio de alojamiento en la nube de Apple. Este filtrado comprobará si cada una de las fotos se corresponde con las de la base de datos que mantiene el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos.
Apple utilizará para esto una tecnología basada en criptografía llamada hashing de imágenes, que es la misma que reconoce el texto aprobado por la Unión Europea para el escaneado de las comunicaciones privadas, también con el objetivo de combatir los abusos a menores. Esta resolución fue bautizada Chatcontrol por sus detractores por la capacidad de vigilancia masiva que conlleva.
El hashing consiste en un software que reduce una foto a un conjunto único de números, como si fuera una huella digital de la imagen. A este código se le llama hash. Apple descargará en los iPhone una base de datos con todos los hashes de imágenes o vídeos de abusos que tiene registrados el NCMEC y cruzará esos códigos con los de las fotos que haya en el Carrete de cada iPhone, buscando coincidencias.
Este proceso es automático y se hará con inteligencia artificial de forma local en el mismo dispositivo, sobre las fotos o vídeos que el usuario marque para subir a iCloud. Si se encuentran hashes coincidentes, un empleado de Apple las revisará para comprobar que sean imágenes de abuso sexual infantil y si lo son, Apple avisará al NCMEC, tras bloquear la cuenta del usuario.
Hasta ahora, Apple no había escaneado vídeos subidos a iCloud aunque había pruebas de que los abusadores han utilizado este servicio durante años. El New York Times informa que en 2019 el número de vídeos reportados por el NCMEC superó al de fotos, y que Apple ese año sólo había reportado 3.000 fotos y ningún vídeo, lo que evidencia que no ha estado escaneando los mensajes ni el alojamiento contratado por sus usuarios en iCloud. Google, en el mismo período, había denunciado 3,5 millones de imágenes.
Messages: Comprobación de imágenes en mensajes de texto
A diferencia de la primera, la segunda medida que Apple implementará en los iPhones en unos meses es opcional para los padres que quieran activarla en la cuenta de los menores de 18 años. Cuando lo esté, el iPhone del menor analizará cada foto enviada y recibida a través de Messages, la aplicación de mensajería, para determinar si incluye material sexualmente explícito. Si es así, además de difuminar ópticamente la imagen, enviará una notificación a los padres, que podrán bloquear o autorizar el envío. Aquí también se utilizan algoritmos de inteligencia artificial.
Las notificaciones a los padres sólo pueden ser activadas para los menores de 12 años. Los usuarios de 13 a 17 años sólo reciben un aviso que les pide confirmación del envío.
Una buena causa para una puerta trasera demasiado riesgosa
El abuso infantil ha ido en aumento durante los últimos años. La popularización de las cámaras en móviles y el almacenamiento en la nube han posibilitado una mayor distribución de este tipo de material. Muchas imágenes continúan circulando y dañando a las víctimas durante años, prolongando el trauma. Los informes que ponen cifras a esta realidad suelen considerar la respuesta de las plataformas tecnológicas como insuficiente, por lo que este movimiento de Apple ha sido bien recibido por la NCMEC.
Pocas causas son tan apoyadas como la de detener este sufrimiento terrible contra los niños, y no hace falta dar detalles para entender el problema, que está fuera de discusión.
«Centrarnos en la privacidad nos desvía del verdadero problema, que es el potencial que tiene para convertirse en una herramienta de vigilancia»
Lo que la cuestión pone de manifiesto es el cuidado con el que las tecnológicas deben caminar entre ayudar a la seguridad pública y asegurar la privacidad de sus usuarios. Apple asegura que ha diseñado estos sistemas, también el de almacenaje de fotos, teniendo en cuenta la privacidad del usuario, pero son muchos expertos los que opinan lo contrario, y llaman a la ciudadanía a no dejarse engañar ante lo que es una puerta trasera al cifrado, aunque esté bajo buenas intenciones y afirme proteger la vida privada.
Vigilancia masiva en todos los iPhones
Carmela Troncoso, ingeniera e investigadora especialista en privacidad, cree que ambas propuestas suponen una manera de romper el cifrado extremo a extremo, ya que una vez que la tecnología está desplegada, no se puede decir que sólo el que envía y el que recibe tienen acceso a la información.
En el caso del escaneado en iCloud, el principal problema es para Troncoso “la creación de una infraestructura que permite la búsqueda remota en dispositivos remotos sin capacidad de ser verificado”. Considera que el sistema “está muy bien diseñado, pero la única garantía de que no se use para buscar algo que no es pornografía infantil es Apple prometiendo que esto no ocurrirá”.
Esta preocupación también ha sido señalada por otros expertos, como Edward Snowden, que ha acusado a Apple de estar desplegando vigilancia masiva a nivel global, aunque prometa proteger a los niños.
“Están actualizando cada iPhone para que compare permanentemente tus fotos y lo que guardas en la nube con una lista negra secreta, y si encuentran una coincidencia, llaman a la policía”, ha tuiteado. Ha advertido que “si pueden escanear para encontrar porno infantil hoy, pueden escanear para encontrar cualquier otra cosa mañana”.
A Parra las medidas de Apple le evocan la analogía de la rana que está en una cacerola al fuego y no se da cuenta hasta que es demasiado tarde. “De a poquito nos van subiendo la temperatura y cuando queramos darnos cuenta, habremos perdido todos los resquicios de privacidad que teníamos. Se habla del abuso sexual a menores y recordemos lo que ha pasado con el terrorismo después del 9/11”.
Troncoso también menciona el terrorismo como lo que puede ser necesario escanear después, y agrega la persecución del colectivo LGTB+ como ejemplo. “Una vez que la infraestructura está disponible, habrá enormes presiones políticas para aumentar su uso para otros crímenes”, dice. Lo que hoy no es crimen para un país, puede serlo mañana para otro, dependiendo quién esté en el poder.
La Electronic Frontier Foundation ha llamado claramente “puerta trasera” a lo que Apple ha construido tanto en su sistema de almacenamiento como en su mensajería, y se muestran decepcionados con una compañía que hasta ahora históricamente había sido un referente en materia de privacidad.

☷
Puertas traseras
Qué son y cómo funciona el cifrado extremo a extremo
Los sesgos de los algoritmos, entre padres e hijos
En el caso del filtrado de mensajes para buscar desnudos, Troncoso cree que lo problemático es que “Apple pone algoritmos de inteligencia artificial, con los problemas que estos tienen, a mediar las relaciones entre padres e hijos, cambiando las reglas del juego. Apple dice que los hijos tendrán la oportunidad de consentir en caso de que una imagen se considere inapropiada por el sistema de Apple… pero en realidad no tienen mucha elección: o ven la imagen y son reportados, o no ven la imagen. De nuevo esto puede tener consecuencias como por ejemplo hijos LGTB+, como cuando por ejemplo puedan compartir fotos de cambios de sexo –algo totalmente normal y necesario mientras encuentran su identidad-, y se encuentren en situaciones de tener que elegir entre comunicarse o revelar a sus padres lo que están pensando”, observa.
Alex Stamos es un científico informático y profesor adjunto en el Centro de Seguridad y Cooperación Internacional de la Universidad de Stanford. Stamos es aquel exdirector de seguridad de Facebook que renunció por desacuerdos sobre cómo gestionar las campañas de desinformación rusas en las elecciones de EE.UU. Dijo estar feliz por ver que Apple toma responsabilidad en el impacto de su plataforma pero frustrado por la forma en que se ha hecho.
Considera que ha empujado el tema técnicamente hacia adelante sin hacer un esfuerzo en buscar un balance, y lamentó que Apple siempre haya rechazado participar en una serie de conversaciones de expertos en torno a este tema que organiza su universidad desde hace años.
Aunque en su primer comunicado Apple decía haber consultado con expertos, una investigadora en criptografía en el Observatorio de Internet de Stanford, Riana Pfefferkorn, lo puso en duda. Cree que Apple no ha consultado a organizaciones de la sociedad civil, porque no existe el aporte de las libertades civiles, de la libertad de expresión, de cuestiones LGTBQI o de organizaciones para jóvenes queer sin hogar. “Si lo hubieran hecho, lo estarían promocionando -incluso si ignoraran lo que les hubieran dicho”, tuiteó.
El problema de las buenas intenciones de Apple
Apple dice en su comunicado que su tecnología mantiene las comunicaciones privadas porque no pueden ser legibles por la compañía, y quizás tengan buenas intenciones. No lo sabemos, y no podemos comprobarlo.
La elección del hashing o escaneado sin “ver” las imágenes, buscando coincidencias con una función matemática, es una tecnología específica que no “ve” el resto de imágenes y por lo tanto se considera que permite mantener la privacidad del usuario. Sin embargo, como advierte Troncoso, la preserva únicamente en el sentido de que revela las fotos o vídeos considerados inadecuados y no otros. “En el primer caso la información se revela a Apple, en el segundo a los padres”, explica.
Según la experta, centrarnos en la privacidad nos desvía del verdadero problema, que es el potencial que tiene para convertirse en una herramienta de vigilancia, aunque sea búsqueda local y limitada, porque no hay protección tecnológica para este límite. Y esto es algo que sí sabemos.
Es imposible crear un sistema de escaneado que sólo pueda ser usado para imágenes sexualmente explícitas enviadas o recibidas por niños. El problema de crear puertas traseras es que generan una infraestructura expandible que no puede ser monitorizada o limitada técnicamente para que sólo busque determinados contenidos, como abuso infantil.
Por otro lado, los algoritmos de hashing pueden dar falsos positivos, según ha señalado Matthew Green, experto en criptografía en Johns Hopskins, quien explica que estas funciones perceptuales del hash son “imprecisas” justamente adrede. Se diseñan así para encontrar imágenes similares a otras, aunque estas puedan estar reescaladas o comprimidas. Teniendo esto en cuenta, alguien podría crear imágenes problemáticas que “coincidieran” con imágenes inofensivas, como pueden ser imágenes con contenido político compartidas por minorías perseguidas. Y estas imágenes inocuas terminarían siendo reportadas.
“Quien controle esta lista negra puede buscar cualquier contenido que quiera en tu teléfono, porque tú como usuario no tienes una forma de saber lo que hay en ella”, señala, ya que aunque el usuario pueda hackear su dispositivo, el hashing convierte esas imágenes en códigos numéricos opacos.
Un sistema que podría caer en manos de cualquier Gobierno
Apple promete negarse a los pedidos de expandir la detección de CSAM hacia otro tipo de material, si alguien se lo pide, y alude a que ya se ha negado a hacerlo en el pasado. Ante esto, el argumento de la confianza es lo único que tenemos y nos deja muy desprotegidos.
Snowden considera el tema una cuestión de seguridad nacional, y se pregunta qué pasará cuando China venga a pedir este sistema para otros fines. La respuesta se la dio un representante de Apple a un periodista de Motherboard, Joseph Cox, que admitió que no tenía respuesta para eso (“es algo por encima de mi puesto”, dijo).
En el pasado, Apple ha modificado sus decisiones tras pedidos de gobiernos, la Justicia o incluso la presión de organismos de seguridad. Ya tiene antecedentes en China, cuando puso backups en un proveedor de ese país con acceso al Gobierno, con lo que las autoridades chinas obtuvieron un acceso más fácil a todos los datos alojados en la nube de los usuarios chinos, incluidas las claves criptográficas.
Hace dos años un denunciante filtró a The Guardian que empresas contratistas de Apple tenían acceso a registros de voz de Siri como parte de su trabajo de forma regular, a pesar de que la compañía nunca había avisado a los usuarios de que los audios serían oídos por otros humanos. Y este año se conoció que la compañía había dado marcha atrás con un plan de cifrar por completo los backups de dispositivos en la nube después de que el FBI se quejara de que eso afectaría negativamente a las investigaciones.
Fuentes
- Carmela Troncoso, ingeniera e investigadora especialista en privacidad
- Samuel Parra, abogado
- Anuncio de Apple sobre su actualización contra el abuso infantil