Los prestadores de servicios de Internet (PSI) están en el punto de mira de la Unión Europea. Amparados en los principios de puerto seguro previstos en la Directiva 2000/31 de comercio electrónico, se consideraban blindados frente a lo que hicieran sus usuarios. No obstante, las cosas están cambiando.

Por un lado, el concepto de comunicación pública mantenido por el TJUE les obliga a extremar las cautelas a la hora de utilizar hipervínculos: en la medida en que el PSI persiga una finalidad económica, se presume que deben verificar si el contenido al que se enlaza es o no lícito. En caso contrario, si es ilícito, se considera que están infringiendo ese derecho. A mi entender ya no resulta posible argumentar que no tenía conocimiento efectivo de la ilicitud del contenido tal y como recoge el art 14 D. 2000/31. El PSI resulta responsable directo por una comunicación pública sin autorización, si bien resulta dudosa la aplicación práctica de la jurisprudencia tal y como se pone de manifiesto en la reciente sentencia alemana que no entiende aplicable la misma al buscador de Google.

Como indica Eleonora Rosati, la jurisprudencia del TJUE va mas allá de lo propuesto en el Art. 13 de la propuesta de Directiva de derechos de autor en el DSM relativo al “value gap”. Al respecto, EDRI-Gram recuerda:

“Article 13 is supposed to address a so-called “value gap” (a lobbying term created by copyright lobbyists and generously re-used by the European Commission) by forcing online platforms to use upload filters on all content to check for copyrighted content. This would mean that each platform allowing uploads would have to monitor all material made available by their users. This would involve multiple filters for text, audio, audiovisual, image and other formats. Worse still, as these filters are not very effective, providers would have to guess how much filtering would be enough to defend themselves if they are taken to court. This would create huge uncertainty for European companies and yet another competitive advantage for the biggest platforms.

Not only this would be extremely costly and detrimental to smaller companies and start-ups, but it also contradicts the e-Commerce Directive. As upload filters would rely on algorithms and content recognition, we can be certain that they would infringe freedom of expression by taking down content that has been wrongly flagged or that is perfectly legal, as it falls under the entirely lawful exceptions to copyright, such as parody”.

A mi modo de ver, la propuesta sigue teniendo sentido por cuanto la jurisprudencia del TJUE sólo es aplicable a la responsabilidad directa del PSI, pero no a aquellos casos en los que es un usuario el que pone a disposición el contenido ilícito o un enlace al mismo.

Del mismo modo, hay que aclarar que la interpretación únicamente es válida en el campo de los derechos de autor.

Pero ahí no queda la cosa. De acuerdo con Eur-Activ, la Comisión quiere obligar a los PSI a tomar un rol más activo en la identificación y retirada de contenidos ilícitos, circunstancia que, de nuevo, pone en tela de juicio el art 14 D. 2000/31 y la prohibición de supervisión general mantenida por la jurisprudencia del TJUE. Esto es lo que nos dicen:

“The Commission has put off introducing hard EU law [that would require them to take down posts containing anything illegal, including terrorist material or hate speech], but threatened over the last year that it might resort to regulating companies if they don’t remove illegal posts on their own. Every few months, the Commission meets with some of the biggest platforms—Google, Microsoft, Twitter and Facebook—to review how quickly they remove illegal posts as part of a non-binding agreement that the firms signed on to in 2016.

The Commission warned last September that it would give the companies a few more months to speed up their rate of removing that material, and promised to announce by May whether it will propose a law”.

Aunque Facebook y Google defienden la necesidad de adoptar un role neutro en cuanto al contenido puesto a disposición por sus usuarios para garantizar la libertad de información y la privacidad, muchos les hacen responsables de la utilización de sus servicios por terceros para incitar al odio y publicar noticias falsas para influenciar decisiones políticas, tales como la elección de Trump en EEUU, la crisis en Cataluña o el Brexit. Y es que, en realidad, la actuación de estos PSI no es tan neutra como parece. Enrique Dans lo explica de la siguiente manera:

“[…] cuando creas contenido en una página de Facebook, ese contenido tiene un alcance orgánico determinado. Alcanza la atención de que manera natural debe alcanzar, en función de sus características y de las personas que deciden compartirlo. Desde ese punto de vista, la red social se convierte en una plataforma, en un entorno en el que la información circula libremente, y cada uno encuentra los contenidos que aquello que ha definido como su entorno de interés, sus amigos, las páginas que decide seguir, etc. le aportan. Sin embargo, a partir de un momento dado, el algoritmo empieza a actuar, restringiendo de manera artificial el alcance orgánico de los contenidos creados, pretendiendo que el creador del contenido, para obtener una audiencia similar a la que tenía antes, se vea obligado a adquirir publicidad. La gran mayoría del negocio de Facebook proviene ni más ni menos que de ahí, de forzar a los creadores de contenidos a pagar por un alcance que podrían estar obteniendo de manera natural, pero del que el algoritmo de Facebook les priva artificialmente. En ese sentido, Facebook es como un vendedor de droga: si quieres mantener tu relevancia, tendrás que pagarme cada vez más”

Más claro si cabe resulta a este gran articulo de Roger McNamee:

Whenever you log into Facebook, there are millions of posts the platform could show you. The key to its business model is the use of algorithms, driven by individual user data, to show you stuff you’re more likely to react to. Wikipedia defines an algorithm as “a set of rules that precisely defines a sequence of operations.” Algorithms appear value neutral, but the platforms’ algorithms are actually designed with a specific value in mind: maximum share of attention, which optimizes profits. They do this by sucking up and analyzing your data, using it to predict what will cause you to react most strongly, and then giving you more of that.

Algorithms that maximize attention give an advantage to negative messages. People tend to react more to inputs that land low on the brainstem. Fear and anger produce a lot more engagement and sharing than joy. The result is that the algorithms favor sensational content over substance”.

Sí, señores, hemos llegado donde me llevan la mayoría de temas que toco últimamente: algoritmos, big data, inteligencia artificial. ¿Puede entenderse que un PSI que utiliza un algoritmo para filtrar el contenido que más nos puede interesar de acuerdo con nuestros intereses personales está amparado en alguna de las exenciones de responsabilidad de la Directiva de comercio electrónico? ¿Puede entenderse que la utilización de estos algoritmos convierte a Facebook en editor de contenidos en el sentido de la STJUE 11 Juliio 2011, C-324/09, “L’Oreal”? En vista de los avances en inteligencia artificial, ¿ha llegado la hora de revisar los principios de puerto seguro creados hace 17 años?

Mientras reflexionáis, DJ Sebitas os recomienda algo de Tom Petty y sus discípulos: aquí, aquí, aquí y aquí.

Dejar respuesta

Please enter your comment!
Please enter your name here

Time limit is exhausted. Please reload CAPTCHA.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.