Campus Virtual
Coordinadores del blog: Pilar Cámara Águila, Javier Fernández-Lasquetty, Sebastián López Maza y Gemma Minero Alejandre

LAS PLATAFORMAS DIGITALES Y SU DEBER LEGAL DE IMPLEMENTAR FILTROS DE CONTENIDO.

  • Escrito por Marc MESEGUER PEDRÓS

El artículo 17 de la Directiva 2019/790 del Parlamento Europeo y del Consejo de 17 de abril de 2019 sobre los derechos de autor y derecho afines en el mercado único digital (DAMUD) ha generado mucha discusión entre la industria de Internet, los titulares de derechos de autor y de prestaciones protegidas y la doctrina. El principal motivo de discusión ha sido la positivización de la responsabilidad por actos de comunicación y puesta a disposición del público de derechos de autor y prestaciones protegidas para aquellos prestadores de servicios de la información que compartan contenidos en línea cargados por sus usuarios (en adelante, nos referiremos a este tipo de prestadores como plataformas digitales1).

En dicho artículo se insta a las plataformas digitales a celebrar licencias o a recabar la autorización de los titulares de derechos de autor y prestaciones protegidas. En el caso de no obtener ninguna de ellas, las plataformas pueden devenir responsables de los contenidos ilícitos que carguen sus usuarios al estar realizando un acto de comunicación y puesta a disposición del público.

Sin embargo, incluso en aquellos casos en que la plataforma digital no pueda obtener autorización o licencia, el artículo 17.4 DAMUD prevé un supuesto de exención de responsabilidad para las plataformas digitales. Dicho supuesto está sujeto a que la plataforma digital cumpla con una serie de condiciones de forma cumulativa [art. 17.4 a), b) y c) DAMUD].

En primer lugar, la plataforma digital debe haber realizado los mayores esfuerzos (best efforts) para obtener una autorización del titular de derechos de autor o prestaciones protegidas [art. 17.4 a) DAMUD]. Se desprende de dicha condición que la empresa debe realizar lo razonable, dentro de las circunstancias de cada caso, para posibilitar la autorización, es decir, se establece una obligación de medios, no de resultados. La principal duda que surge es saber en qué supuestos una plataforma digital ha realizado los mayores esfuerzos, dado que las plataformas digitales afectadas por el artículo albergan grandes cantidades de contenido que pueden llegar a ser incontrolables y en muchos casos la tarea de identificar o localizar al titular de los derechos de autor o prestaciones protegidas puede ser difícil o imposible, además de tener que obtener autorización de cada uno de los titulares. Por ejemplo, en la plataforma YouTube se pueden llegar a cargar más de 500 horas de contenido cada minuto2.

El siguiente requisito que debe cumplirse para beneficiarse del supuesto de exención es realizar los mejores esfuerzos para garantizar la indisponibilidad de obras y otras prestaciones específicas respecto de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria [17.4 b) DAMUD].  Nos volvemos a encontrar con el criterio de mayores esfuerzos, pero en este caso dirigido a prevenir el existente o potencial alojamiento y acceso en las plataformas de aquellas obras o prestaciones protegidas no autorizadas. Entonces, ¿de qué forma puede una plataforma prevenir y evitar los existentes y potenciales contenidos ilícitos en sus servidores?

Aquí es donde entran en juego los filtros de contenido, es decir, sistemas que identifican, analizan, bloquean y remueven automáticamente aquellos contenidos que, en materia de derechos de autor, no hayan sido autorizados por su titular - aunque también pueden actuar, por ejemplo, sobre contenidos para adultos o de venta ilegal de armas y drogas -.

Inicialmente, la Propuesta de Directiva del Parlamento Europeo y del Consejo sobre los derechos de autor en el mercado único digital de 14 de septiembre de 2016 de la Comisión Europea obligaba a las plataformas a asegurar el funcionamiento de los acuerdos de licencias y prevenir la disponibilidad de aquel contenido que no estaba autorizado por su titular. Para poder cumplir con dichas obligaciones, se hacía alusión, en su artículo 13, a “sistemas de reconocimiento de contenido” que automáticamente identificasen y removieran aquel contenido que vulnerase derechos de autor. Asimismo, la Evaluación de Impacto de la Comisión Europea que acompañó a esta propuesta también contemplaba como opción expresamente la implementación de filtros de contenido.

Posteriormente, la versión del Comité de Asuntos Legales del Parlamento Europeo de 20 de junio de 2018 sobre la Propuesta de Directiva sobre los derechos de autor en el Mercado Único Digital hacía hincapié en las obligaciones reseñadas anteriormente, pero no mencionaba expresamente el uso de herramientas de filtrado. Sin embargo, su considerando 38 reconocía que, para asegurar el cumplimiento de las licencias con los titulares de derechos de autor, se debía acudir a la implementación de “tecnologías efectivas”, de donde se desprendía claramente una alusión a los sistemas de filtrado. Además, en el artículo 13 de la Propuesta del Consejo Europeo de la Directiva sobre los derechos de autor en el Mercado Único Digital también se establecía la necesidad de aplicar medidas efectivas y proporcionadas para prevenir la utilización de obras sin autorización en las plataformas, redactado que puede ser interpretado como una alusión a los filtros de contenido.

Por consiguiente, los antecedentes de la DAMUD se refieren claramente a los filtros de contenido como medidas efectivas para prevenir la disponibilidad de contenidos ilícitos en las plataformas. Incluso se puede interpretar que el propio artículo 17.4 b) DAMUD -al remitirse a normas sectoriales estrictas de diligencia profesional- y el artículo 17.5 b) DAMUD -al referirse a la disposición de medios adecuados y eficaces para cumplir con el supuesto de exención- dejan cabida a los filtros de contenido.

El artículo 17.4 c) DAMUD, como último requisito para la exención de responsabilidad, obliga a inhabilitar el acceso o remover las obras o prestaciones que hubieren sido notificadas por los titulares de derechos y a prevenir que dichas obras o prestaciones vuelvan a ser vulneradas en un futuro en materia de propiedad intelectual de conformidad con el 17.4 b) DAMUD. Esto último también apunta a la implementación de filtros de contenido para evitar que se vuelvan a cargar contenidos que ya hubieren sido identificados y removidos, previa notificación por parte del titular de los derechos.

En la DAMUD no se mencionan expresamente los filtros, no obstante, el artículo 17.4 b) DAMUD está instando a las plataformas a que los instalen porque, de no hacerlo, difícilmente podrán cumplir con este requisito por vías alternativas. Por ejemplo, no parece viable una solución de filtrado manual, esto es aquel realizado por personal humano, teniendo en cuenta casos como los de Sony que tuvo que gastar cientos de miles de dólares para revisar manualmente 1,5 millones de metadatos coincidentes y enviar notificaciones para retirar aproximadamente 218.000 copias de contenido ilícito de la plataforma SoundCloud (que únicamente significó el 15% del catálogo de Sony en esa plataforma3) o como YouTube gestiona manualmente el 0,5% de las reclamaciones de derechos de autor y prestaciones protegidas de canciones que les notifican, siendo el 99,5% restante gestionado a través de sus filtros de contenido4.

En resumen, para que las plataformas no sean responsables del contenido cargado por sus usuarios, se les exige un deber de prevención de disponibilidad de contenidos que vulneren derechos de autor y prestaciones protegidas. Este deber debe entenderse como una imposición de los filtros de contenido, tanto por su idoneidad para controlar grandes cantidades de contenido, por los antecedentes y documentos preparatorios de la DAMUD y por el propio tenor literal del artículo 17 DAMUD.  

 

(1) Un prestador de un servicio de la sociedad de la información cuyo fin principal o uno de cuyos fines principales es almacenar y dar al público acceso a una gran cantidad de obras u otras prestaciones protegidas cargadas por sus usuarios, que el servicio organiza y promociona con fines lucrativos [art. 2 6) DAMUD]. Este tipo de prestadores estarían actuando como intermediarios, realizando actividades de hosting o almacenamiento de datos según lo dispuesto por el artículo 14 de la Directiva 2000/31/CE sobre el Comercio Electrónico. De ahí que el propio artículo 17.3 DAMUD excluye la posibilidad de acogerse al puerto seguro de alojamiento en el caso de que se cumpliese con los requisitos para ello.  

(2) En este sentido, https://www.tubefilter.com/2019/05/07/number-hours-video-uploaded-to-youtube-per-minute/

(3) Véase la Evaluación de Impacto de la Comisión Europea sobre modernización de la normativa europea en materia de derechos de autor, Parte Primera, 14 de septiembre de 2016, p.140.

(4) MULLE, C.: YouTube: No other platform gives as much money back to creators, https://www.theguardian.com/music/musicblog/2016/apr/28/youtube-no-other-platform-gives-as-much-money-back-to-creators