Campus Virtual

FILTROS DE CONTENIDO SÍ, PERO SIN OBLIGACIÓN GENERAL DE SUPERVISIÓN DE DATOS O DE BÚSQUEDA ACTIVA DE ACTIVIDAD ILÍCITA

  • Escrito por Marc MESEGUER PEDRÓS

Anteriormente, vimos el supuesto de exención por actos de comunicación y puesta a disposición del público contemplado en el artículo 17.4 de la Directiva 2019/790 del Parlamento Europeo y del Consejo de 17 de abril de 2019 sobre los derechos de autor y derecho afines en el mercado único digital (DAMUD). Dos de los requisitos para cumplir con este supuesto obligan de facto a las plataformas digitales a implementar filtros de contenido. Por una parte, los filtros de contenido deben prevenir la disponibilidad de contenidos específicos – respecto de los que hayan recibido información necesaria y pertinente por parte de los titulares de derechos– que vulneren derechos de autor y prestaciones protegidas [art. 17.4 b) DAMUD] y, por otra, prevenir que se vuelvan a cargar contenidos que ya hubieran sido removidos o bloqueados por la plataforma, previa notificación por parte del titular de derechos [17.4 c) DAMUD].

En la presente entrada, se plantearán qué usos de los filtros estarían prohibidos desde la perspectiva del artículo 15 DCE y cuáles permitidos, como los supuestos de supervisión específica de contenidos. Ayudarán a este respecto los siguientes casos: SSTJUE de 24 de noviembre de 2011, Scarlet Extended S.A. v. Société belge des auteurs, compositeurs et éditeurs SCRL (Scarlet), de 16 de febrero de 2012, SABAM v. Netlog NV (Netlog), de 12 de julio de 2011, L’Óreal v. eBay International (L’Óreal), de 7 de julio de 2016, Tommy Hilfiger v. Delta Center (Hilfiger) y de 3 de octubre de 2019, Glawischnig-Piesczek v. Facebook (Facebook).

En primer lugar, el artículo 17.8 DAMUD advierte que las obligaciones del artículo 17 DAMUD no pueden dar lugar a una obligación general de supervisión del artículo 15 DCE, sin tampoco añadir ni clarificar mucho más al respecto.  Según este último artículo, los Estados Miembros no pueden obligar generalmente a los prestadores intermediarios – aquellos que realizan alguno de los servicios de los artículos 12 (mere conduit), 13 (caching) y 14 (hosting) DCE– a implementar medidas de supervisión de datos transmitidos o almacenados ni a realizar búsquedas activas de hechos o circunstancias que indiquen actividades ilícitas. Así pues, quedaría prohibido imponer a las plataformas digitales – como proveedores de servicios de hosting – la utilización de filtros de contenido que supervisen la casi totalidad de los contenidos almacenados o que van a ser cargados a una plataforma digital y que bloqueen aquellos que vulneren derechos de autor o prestaciones protegidas. Así lo confirma el TJUE al afirmar que las autoridades nacionales no pueden imponer a un prestador de servicios de hosting un sistema de filtrado sobre la información almacenada en sus servidores por los usuarios de sus servicios; que se aplique indistintamente con respecto a toda su clientela; con carácter preventivo; exclusivamente a sus expensas, y sin limitación en el tiempo (Netlog, párrs. 26 y 38). Del mismo modo, tampoco se puede obligar a implementar este mismo sistema de filtrado para supervisar las comunicaciones que transmiten los prestadores de acceso a internet (Scarlet, párrs. 29 y 40).

Además, los filtros que analizan la totalidad de los archivos almacenados en sus servidores, determinando cuáles de ellos vulneran derechos de propiedad intelectual, bloqueándolos o removiéndolos consecuentemente, suponen una vigilancia activa (…) que afecta tanto a casi la totalidad de la información almacenada como a los usuarios de los servicios de ese prestador (Netlog, pár. 36; Scarlet, pár. 38), lo que supone una búsqueda activa de hechos o circunstancias que indiquen actividades ilícitas prohibida por el artículo 15 DCE.

También en los artículos 17.5 a) y 17.5 b) DAMUD, para determinar si se ha cumplido con los artículos 17.4 b) y 17.4 c) DAMUD, se afirma que se debe tener en cuenta, entre otros, la magnitud del servicio de la plataforma, la disponibilidad de medios adecuados y eficaces y su coste. Una posible interpretación de estos elementos, a la luz del criterio de proporcionalidad que contempla el mismo artículo, permitiría razonar que una obligación general de supervisión de datos y de búsqueda activa de contenidos ilícitos en plataformas de gran tamaño pueden suponer un coste económico excesivo. Además, de permitirse una supervisión general, se llegarían a utilizar sistemas de filtrado que podrían conllevar un exceso de filtración de contenidos, afectando a posibles usos lícitos, como, por ejemplo, los amparados por algún límite o excepción a los derechos de propiedad intelectual.

Por consiguiente, el requisito de mayores esfuerzos para garantizar la indisponibilidad de las obras y otras prestaciones específicas, presentes o futuras [arts. 17.4 b) y 17.4 c) DAMUD], deberá cumplirse sin la necesidad de implementar obligatoriamente filtros de contenido que monitoricen indefinidamente la totalidad o casi totalidad del contenido y de los usuarios de una plataforma. Otro caso distinto es que, actualmente, incluso mucho antes de la confección de la DAMUD, plataformas como YouTube o DailyMotion ya implementaran voluntariamente sistemas de filtrado. En cualquiera de estos supuestos no es exigible la prohibición general de supervisión de datos y búsqueda activa de contenidos ilícitos.

Entonces, ¿hay algún uso de los filtros compatible con el artículo 17 DAMUD? Parte de la doctrina afirma que, aunque la plataforma tenga la información de un determinado contenido protegido o ya hubiera removido con anterioridad un contenido ilícito, deberá identificar y remover igualmente, de manera indefinida en el tiempo, las vulneraciones de ese contenido de entre la totalidad o casi totalidad del contenido cargado o que se vaya a cargar en un futuro, yendo consecuentemente en contra del artículo 15 DCE1.

El único margen de actuación que tienen los filtros para ser acordes con el artículo 15 DCE es que únicamente supervisen en casos específicos (considerando 47 DCE). No existe en el Derecho europeo ninguna referencia sobre qué debe entenderse por “supervisión en casos específicos”, aunque el TJUE arroja un poco de luz al respecto al pronunciarse sobre la legalidad de ciertos requerimientos judiciales a intermediarios, a tenor de la Directiva 2004/48 en lo relativo al respeto de los derechos de propiedad intelectual.

En concreto, se han considerado como medidas de supervisión específica la suspensión de la cuenta de un usuario para evitar que el mismo comerciante vuelva a cometer infracciones de esta naturaleza en relación con las mismas marcas (L’Óreal, pár.141) y evitar que se produzcan nuevas infracciones de la misma naturaleza por parte del mismo comerciante (Hilfiger, pár. 34). Para ello, el intermediario, previa notificación por parte de un tercero de la identidad del usuario y del contenido ilícito en cuestión, debía impedir que se pudieran repetir vulneraciones por parte de ese usuario, debiendo supervisar los datos cargados por aquél. En consecuencia, los filtros de contenido podrían supervisar aquellos contenidos que ya hubieran sido removidos con anterioridad [art. 17.4 c) DAMUD] siempre que volviesen a cargarse en un futuro por el mismo infractor o grupo de infractores en particular.

También el TJUE recientemente ha reconocido que cabe obligar a una plataforma, como medida de supervisión específica, a eliminar o bloquear información que hubiere sido declarado ilícita por pronunciamiento judicial o cuyo contenido fuera similar a la información declarada ilícita, sea quien fuere el autor de la solicitud de almacenamiento de tales datos (Facebook, párrs. 34, 37 y 41). Para ello, el TJUE vino a admitir la utilización de filtros como medidas de supervisión específica al reconocer que los prestadores debían utilizar técnicas e instrumentos de búsqueda automatizados y no obligarse a realizar una apreciación autónoma de cada uno de los potenciales contenidos ilícitos (Facebook, pár. 46).  Se amplió así el alcance de la supervisión específica ya no solo a todos los contenidos que pueda publicar un determinado usuario o grupo de usuarios, sino también a otro contenido cargado por cualquier usuario que sea idéntico o similar a aquel contenido que se hubiere declarado ilícito. No obstante, estos filtros tan solo podrían actuar a partir de la existencia de un pronunciamiento judicial, y no en el momento en que los titulares de derechos únicamente facilitan la información pertinente y necesaria sobre sus obras y prestaciones protegidas [17.4 b) DAMUD] o cuando prevengan la carga de contenidos que ya hubieran sido removidos o bloqueados por la plataforma [17.4 c) DAMUD].

A tenor de lo dispuesto en la referida jurisprudencia del TJUE, no es concebible que los filtros supervisen específicamente un contenido si tan solo se facilita información pertinente y necesaria por parte de sus titulares. En cambio, sí cabe dicha supervisión cuando aquellos contenidos que ya hubieran sido removidos con anterioridad se volviesen a cargar en un futuro por el mismo infractor o grupo de infractores.

En definitiva, si analizamos los artículos 17.4 b) y 17.4 c) DAMUD en confluencia con la jurisprudencia del TJUE en materia de requerimientos judiciales para intermediarios, se deja muy poco o nulo margen de actuación a los filtros de contenido. Esto se debe a que supone un reto concebir los filtros como una medida de supervisión específica porque éstos normalmente monitorizan la totalidad o la casi totalidad de los contenidos, existentes y futuros, de las plataformas digitales. Todo esto no implica que el TJUE no intente realizar una labor interpretativa más amplia del uso permitido de los filtros de contenido, teniendo en cuenta la nueva política de responsabilidad para las plataformas digitales que pretende asentar la DAMUD.

 

1 SENFTLEBEN, M.: Bermuda Triangle – Licensing, Filtering and Privileging User-Generated Content Under the New Directive on Copyright in the Digital Single Market, p.7.; FROSIO, G: Monitoring and Filtering: European Reform or Global Trend?, p.24;  PEGUERA, M.: The New Copyright Directive: Online Content-Sharing Service Providers lose eCommerce Directive immunity and are forced to monitor content uploaded by users (Article 17), http://copyrightblog.kluweriplaw.com/2019/09/26/the-new-copyright-directive-online-content-sharing-service-providers-lose-ecommerce-directive-immunity-and-are-forced-to-monitor-content-uploaded-by-users-article-17/