Digital Services Act: claves de la gran ley europea para las plataformas de internet

Margrethe Vestager y Thierry Breton | EFE/EPA/Olivier Matthys
Tiempo de lectura: 14 min

La Comisión Europea ha presentado su propuesta para regular la actividad online. En el año de la pandemia, Europa por fin pone sobre el papel las responsabilidades y obligaciones que considera deben tener intermediarios tecnológicos cuyos servicios usamos en internet, pero sobre todo las plataformas de uso masivo, como Facebook, Twitter, Amazon, TikTok o WhatsApp.

Publicidad

“Es difícil imaginar una norma jurídica que haya generado mayor expectación, por lo menos a nivel europeo”, se sorprendía Joan Barata, jurista de la Universidad de Standford-CIS, en la jornada organizada por la PDLI para analizar el tema. Y es que bajo los dos documentos presentados por los comisarios el 15 de diciembre, la Digital Services Act (DSA) y la Digital Market Act (DMA), se encuentra una regulación orientada a definir con precisión actividades de plataformas de alojamiento y distribución de contenidos inmensamente populares y usadas por millones de europeos para compartir noticias, información, bulos, conversaciones privadas y públicas. 

https://twitter.com/EU_Commission/status/1338869922085154818

La DMA está orientada a la apertura del mercado digital estableciendo límites a los actuales monopolios de las tecnológicas y armonizando las normas existentes en los distintos estados miembros.

La DSA establece los principios fundamentales de la regulación, y a través de esta, la Comisión intentará redefinir el panorama de la internet actual, alterando el desequilibrio existente entre el poder de las grandes plataformas y devolviendo el control a las personas. Esta es una de las prioridades políticas de Margrethe Vestager, a quien la presidenta del ejecutivo comunitario, Ursula von der Leyen, ha encargado la cartera de Asuntos Digitales. 

Una evolución de la directiva de comercio electrónico

A pesar de que en los últimos años se ha oído hablar sobre todo desde las esferas europeas de la necesidad de poner límites a los gigantes de internet, en Europa ya había una normativa que regulaba su funcionamiento, vigente desde el año 2000: la directiva de comercio electrónico.

Publicidad

Uno de los principales aciertos de la directiva ha sido la prohibición del deber de vigilancia de las plataformas, y la DSA la mantiene

Desde entonces, ha sido la piedra angular para regular servicios digitales y lo ha hecho bastante bien, a pesar de que en la actualidad nos encontramos ante nuevos riesgos y problemas de la economía de plataformas, según la UE.

Estas grandes empresas tienen el poder de controlar ecosistemas digitales y acceso a grandes cantidades de datos, lo que afecta a la competitividad, a la circulación de productos ilegales (como productos falsificados, drogas, material relacionado con el terrorismo y la pornografía infantil), e incluso al funcionamiento democrático y la información que llega a millones de personas. 

Según las consultas previas, y en consenso con los expertos en el tema preguntados por Newtral.es, uno de los principales aciertos de la directiva ha sido la prohibición del deber de vigilancia de estas plataformas, y la DSA no altera esta normativa en sus principios fundamentales. 

Además agrega una cláusula del buen samaritano, un principio legal que establece que los intermediarios no serán penalmente responsables por medidas de buena fe que tomen contra contenidos ilegales o inapropiados. 

Las plataformas, responsables

Pero esto no quiere decir que las plataformas se libren de responsabilidades. Más bien, todo lo contrario.

Publicidad

En la propuesta se definen claramente los deberes y la obligación de rendir cuentas de los proveedores de servicios de intermediación y, en particular, de las plataformas online. 

Se establecen obligaciones claras de diligencia debida, incluidos los procedimientos de notificación y actuación en caso de contenido ilícito, y se introduce una gradación de responsabilidades según su cantidad de usuarios, por lo que algunas obligaciones sustantivas son asimétricas y se limitan sólo para las plataformas de gran tamaño.

La UE considera que “debido a su alcance han adquirido una función central y sistémica para facilitar el debate público y las transacciones económicas”. Los proveedores muy pequeños están totalmente exentos de las obligaciones.

El umbral operacional para los servicios a los que alcanzan estas obligaciones incluye a las plataformas con un alcance considerable entre la población: las que superan los 45 millones de usuarios, o el 10% de población de la Unión Europea. Este umbral está en correlación con los riesgos que implica su alcance: “Una vez que la base de usuarios de una plataforma llega a una parte importante de la población de la Unión, los riesgos sistémicos que ésta plantea tienen un impacto desproporcionadamente negativo en la Unión”. 

Entre las obligaciones que establece la DSA para las plataformas está la de fijar un mecanismo de notificaciones de denuncias para los usuarios, por medio de las cuales se considera que tienen conocimiento efectivo y están obligados a actuar en consecuencia, borrando, ocultando o tomando la acción que consideren pertinente. 

Carlos Sánchez Almeida, abogado experto en tecnología, ve esto como algo problemático en la ley. “A la hora de la verdad, cuando las plataformas empiecen a recibir notificaciones pidiendo modificación de contenidos, qué van a hacer, pues no complicarse la vida y borrar. Porque el artículo 14.3 dice que esa notificación por sí misma supone conocimiento efectivo. Un conocimiento efectivo que en la directiva comunitaria todavía en vigor estaba condicionado a que una autoridad dictaminase la ilegalidad y en el caso español eran los jueces, pues a partir de ahora ese conocimiento efectivo es un correo electrónico. Ya no hace falta una sentencia judicial”.  

El  sistema de notificaciones y la obligación que supone el conocimiento efectivo le parece “peligrosísimo” a Ofelia Tejerina, jurista y presidenta de la Asociación de Internautas. 

“Debería ser una obligación indirecta, y que actúen diligentemente para atenderla”. Para los proveedores, que son empresas, “el riesgo de una sanción legal es muy alto por no actuar, por pensar que eso no es ilegal, y no puede ser así. El deber de colaboración es el que reivindico, no es judicial y habría una respuesta proactiva y para mí, suficiente”, afirma.

“Porque si no, estamos obligando a las plataformas a actuar primero como policía -recojo tu denuncia y actúo- y luego como juez”. Tejerina sostiene que el conocimiento efectivo debería ser por un juez, o una administración competente, como mínimo. 

‘Trusted flaggers’ y coordinadores digitales

Una de las figuras nuevas que crea la DSA es la de “trusted flaggers” (algo así como señaladores de confianza, aún no hay traducción oficial al español de la propuesta), definidas como entidades que deben haber demostrado tener experiencia y competencia en abordar contenidos ilegales.

El artículo 19 menciona que deben ser designados y revocados por los Coordinadores digitales en cada Estado. Esta figura también es nueva, y consiste en nuevas autoridades nacionales con funciones específicas y poder y recursos para investigar y ejecutar la ley.

Tejerina dice que la figura del trusted flagger aún es muy amplia y que aunque hay quien los considera “el chivato”, ella prefiere pensar que pueden ser verificadores. “Los verificadores pueden ser esenciales para el control de contenidos. Precisamente porque tienen responsabilidad deontológica y legal, ya que actúan como medios de comunicación social”. Pero ve un riesgo en que sea una figura nombrada por las autoridades, como la del Coordinador Digital, que los designe. 

“Un trusted flagger es una persona de confianza. Entiendo que hay una empresa en el registro mercantil, que se constituye como tal con el objeto de verificar, y lo tiene que asumir la legislación vigente. Eso es lo que me da confianza, no porque me lo diga la UE. Yo quiero que el sello de confianza me lo dé la responsabilidad legal de estas empresas que verifican. En mi opinión, son informadores igual que lo son los medios de comunicación, tienen la misma función social como informadores y se tienen que someter a todas las garantías constitucionales de la libertad de la información”, opina.

Los posibles riesgos de la Digital Services Act

La propuesta de la DSA insiste en que uno de sus objetivos es garantizar los derechos fundamentales y en particular la libertad de expresión e información, aunque los expertos coinciden que hay riesgos para los mismos si no se concretan algunos presupuestos de esta normativa. 

El reglamento introduce un marco horizontal para todas las categorías de contenido, productos, servicios y actividades de los servicios intermediarios. Así, el carácter ilícito de los mismos no se define en el presente Reglamento, sino que se deriva del derecho de la Unión o del derecho nacional. 

Es decir que la concreción de lo que será ilegal o no está en los códigos penales nacionales. “Imagínate en Polonia donde se ha prohibido la adopción por parejas del mismo sexo”, pide Sánchez Almeida. “Imagínate que se consienta allí que ese tipo de adopción es un tipo de abuso sexual a menores. Y entonces con arreglo a esa situación se van a las plataformas, donde los activistas gays y lesbianas que están pidiendo igualdad legislativa, y consideran que esa información no se puede publicar porque afecta a los menores”. Esto es un problema, según Sánchez Almeida, el que dependa de la legislación nacional, ya que debería estar contenido en la normativa.

La Electronic Frontier Foundation ha criticado que la cláusula del buen samaritano podría hacer que los intermediarios, unidos a su obligación de actuar, incurran voluntariamente en actos contra el contenido. Barata no lo ve así. 

“Hay que tener en cuenta que en el sistema jurídico estadounidense (que es donde nace), no existe la excepción del conocimiento efectivo, la cual sí ha venido existiendo en Europa. La cláusula en cuanto tal no promovería ninguna remoción apresurada, dado que la protección se otorga siempre que la plataforma haya actuado de “buena fe” (es decir de forma no caprichosa o arbitraria) y con relación a contenido que se considere, en base a las normas internas, como objetable”.

¿Pueden las plataformas cometer errores? Sin duda, responde Barata. “Eso es además inevitable en un contexto de moderación de contenidos a escala. Lo importante es que dispongan de mecanismos adecuados para la detección y corrección de los mismos”, concluye. 

A Sánchez Almeida le preocupa el concepto de riesgos sistémicos, que se repite en la ley como un argumento para que las plataformas realicen auditorías. “Estamos hablando de riesgos sistémicos solamente por el hecho de que existan las plataformas. Da la sensación de que internet no podría existir sin estas plataformas. Como cuando se dice ‘no podemos dejar caer a los bancos porque sin ellos se cae el sistema’. Pues ante esa argumentación que considera a los bancos sistémicos trae, en consecuencia, que la actividad bancaria tiene que ser regulada y controlada por la administración, como las telecomunicaciones; esa reflexión con respecto a las plataformas tipo Google, Facebook y demás, a mí me parece un poco aventurada”, opina.

“Porque no es lo mismo el papel de la banca en la economía que el de las plataformas en internet. Por muy importantes que consideremos ahora a esas plataformas, dentro de 20 años a lo mejor nos estamos riendo de lo que estamos haciendo ahora con las redes sociales”. 

¿Debemos tratar a estas empresas como monopolios? “Internet podría existir sin Amazon o Google, existen otras alternativas, se las está enfocando como un monopolio cuando no lo es. El monopolio de facto que tenía Microsoft sobre sistemas operativos era mucho más monopolio que esto. Y la prueba de que podemos prescindir de Twitter soy yo mismo, que llevaba 10 años y lo he dejado», ejemplifica Sánchez Almeida. «El carácter adictivo de las plataformas es lo que realmente veo peligroso y lo que sorprende es que la Comisión no haya observado este problema desde un prisma de salud pública”, analiza.

“El sistema judicial está cojo y mientras no asuma la parte tecnológica de nuestra vida no tendremos un poder judicial acorde con nuestra Constitución”

A Tejerina le llama la atención que “cada vez que se trata de legislar la tecnología se vaya a un pseudojuzgado, se intenten crear intermediarios para que las cuestiones no tengan que llegar a un juzgado”. Reconoce que eso puede ser útil a veces, y que la excusa habitual es que los juzgados “no pueden ir tan rápido como la tecnología”, y ella entiende “que haya que poner algunas medidas pero no aparcar al juez como se está haciendo. 

Según la jurista, esto tiene que poner una alarma sobre un problema: “El sistema judicial está cojo y mientras no asuma la parte tecnológica de nuestra vida no tendremos un poder judicial acorde con nuestra Constitución”. 

Aciertos y puntos oscuros 

Una de las mejores cosas de la DSA, según Tejerina, es volver a poner sobre la mesa las carencias legislativas, tanto en Europa como a nivel nacional, porque hay una necesidad de armonizar entre países. “Traerlo a la mesa de debate me parece un acierto absoluto”. También mantener la prohibición de vigilar por parte de las plataformas. “Me parece interesante que esto nos lleve a entender la diferencia entre la responsabilidad directa y un deber de colaboración por responsabilidad indirecta, estas tres cuestiones son esenciales”. En cualquier caso, el hecho de que exista esta propuesta tiene cosas muy positivas, valora. 

Barata califica a la DSA de “interesante, en términos de nuevas protecciones a los usuarios (transparencia, fundamentación de decisiones de retirada de contenidos, auditorías, apelación de dichas decisiones), pero “con un buen número de aspectos peligrosos para la libertad de expresión como los citados con relación a la mitigación de riesgos sistémicos o necesidad de reacción frente a peticiones privadas de retirada de contenidos”.

La propuesta es eso por ahora, un planteamiento que tiene un largo tramo legislativo por andar. Sánchez Almeida estima que puede ser como mínimo dos años, y que se rebajará bastante el contenido. 

En ese momento, cuando sea, sí entrará en vigor inmediatamente en todos los países miembros, ya que es un Reglamento. La diferencia con las directivas es que estas establecen normas generales que luego los países tienen que transponer a su legislación, es lo que se hizo con la del año 2000 que fue traspuesta mediante la Ley de Servicios de la Sociedad de la Información y del Comercio Electrónico (LSSI). Los reglamentos, como la DSA, son de aplicación directa.

Se abre por lo tanto un plazo en el que diversos sectores de la sociedad civil aún pueden darle forma. Puede ser una oportunidad para crear un marco normativo proporcionado y garante de los derechos fundamentales para los europeos en el ámbito digital. 

Fuentes: 

  • Joan Barata, jurista de la Universidad de Standford-CIS
  • Ofelia Tejerina, presidenta de la Asociación de Internautas y jurista experta en nuevas tecnologías
  • Carlos Sánchez Almeida, director legal de la PDLI y abogado experto en tecnología
  • Sergio Carrasco Mayans, ingeniero informático y abogado
  • Digital Services Act
  • Directiva de Comercio Electrónico (2000)