Indice
La nuova direttiva copyright: il punto sull’art 17
Con l’emanazione del D.lgs. 8 novembre 2021, n. 177 il legislatore italiano ha dato attuazione alla Direttiva UE 2019/79 sul diritto d’autore e sui diritti connessi nel mercato unico digitale.
Tra le novità quella dell’art. 17 ha destato l’interesse di molti, in quanto, nei fatti rende i gestori delle piattaforme di condivisione online – ad esempio Youtube – responsabili dei contenuti caricati dagli utenti che violano il diritto d’autore.
In particolare, per i contenuti caricati dagli utenti, la normativa prevede che le piattaforme debbano ottenere un’autorizzazione alla condivisione di opere o materiali protetti dal diritto d’autore da parte dei titolari. Nel caso in cui non sia concessa alcuna autorizzazione, i prestatori di servizi di condivisione di contenuti online sono ritenuti responsabili per atti non autorizzati di comunicazione al pubblico, compresa la messa a disposizione del pubblico, di opere e altri materiali protetti dal diritto d’autore.
Per sottrarsi a questa responsabilità, gli operatori dei servizi di condivisione dei contenuti online devono dimostrare di aver fatto tutto il possibile per ottenere l’autorizzazione dei titolari dei diritti e garantire che i contenuti illeciti non siano disponibili sulle loro piattaforme. Inoltre, devono dimostrare di aver agito rapidamente per rimuovere i contenuti segnalati e impedirne il nuovo caricamento dopo essere stati informati dai titolari dei diritti.
G.D.P.R. vs Diritto d’autore:
Per conciliare l’esigenza delle piattaforme di pubblicare in tempo reale i contenuti dei propri utenti ed allo stesso tempo essere conformi alla normativa sopra citata, tra le soluzioni più accreditate che circolano è l’utilizzo di sistemi di “filtraggio” preventivo, i quali attraverso software algoritmici faranno un semplice “matching”, ovvero saranno in grado di analizzare e rilevare somiglianze con altri contenuti esistenti. Tale operazione, per la natura stessa dello strumento impiegato, non potrà però tenere conto di altri elementi, compresi quelli di contesto, che presumibilmente potrebbero consentire la pubblicazione del contenuto, limitando così di fatto la libertà di espressione dell’utente.
Questo tipo di attività svolta principalmente da un software fa senz’altro pensare a un processo decisionale automatizzato che ricordiamo essere vietato dall’art. 22 del G.D.P.R. se non in presenza di determinate circostanze.
Perché parliamo di G.D.P.R.?
Semplice, il G.D.P.R trova applicazione nel momento in cui il gestore della piattaforma tratta dati personali. Come sancisce il regolamento il dato personale è qualsiasi informazione riguardante una persona fisica identificata o identificabile. Pertanto, ogni post “filtrato” in base all’art. 17 della Direttiva copyright proviene da un utente che si è preventivamente registrato attraverso l’inserimento dei suoi dati personali sulla piattaforma, rendendo inevitabile l’applicazione del G.D.P.R rispetto all’eventuale trattamento di dati effettuato.
L’articolo 22 del Regolamento, tuttavia, pone alcune condizioni che consentono la possibilità di effettuare processi decisionali esclusivamente automatizzati aventi effetti giuridici o significativamente analoghi sulla persona dell’interessato e sono contenute all’art. 22 comma 2 del Regolamento:
1. quando la decisione è necessaria per la conclusione o l’esecuzione di un contratto;
2. Se la decisione è autorizzata dal diritto dell’Unione o di uno Stato membro; la decisione si basa sul consenso esplicito dell’interessato.
Delle tre condizioni, l’unica verosimilmente attuabile sarebbe l’autorizzazione da parte del diritto europeo o nazionale. L’applicazione dell’articolo 17 da parte degli Stati membri, infatti, potrebbe giustificare un processo decisionale automatizzato, ma la sua applicazione è ancora confusa e probabilmente solo l’intervento della Corte di Giustizia EU potrà risolverlo.
La diversa posizione degli Stati Membri sull’applicazione dell’art 17 della Direttiva UE 2019/79:
La gran parte degli Stati non fornisce alcun orientamento alle piattaforme su come applicare la nuova disposizione, lasciando così tale obbligo alle piattaforme del web e ai titolari dei diritti. Altri, come ad esempio la Francia, hanno posto la loro attenzione esclusivamente sugli strumenti di filtraggio dei contenuti.
Gli unici Stati che hanno scelto di includere sostanziali modifiche alla normativa sono Germania, Austria e Finlandia, introducendo specifiche salvaguardie per evitare blocchi eccessivi di contenuti, mediante l’applicazione di salvaguardie procedurali e sostanziali dei diritti degli utenti, allo scopo di limitare in modo significativo la capacità delle piattaforme di implementare filtri di caricamento completamente automatizzati, proprio per ottemperare agli obblighi di cui all’articolo 17, paragrafo 4.
Le diverse teorie elaborate mirano a prevedere che i contenuti non possano essere bloccati automaticamente e che debbano essere rivisti manualmente dai titolari dei diritti, rimanendo online fino alla risoluzione della controversia. Infine, ci sono altri Stati come Spagna e Italia che sostanzialmente danno maggiore rilevanza agli interessi dei titolari dei diritti, i quali richiedono che i caricamenti vengano bloccati e rimangano indisponibili fino alla conclusione del reclamo relativo al contenuto, se avviato dall’autore del caricamento, mettendo così al secondo posto la libertà di espressione degli utenti.
Al fine di chiarire alcune nozioni dubbie dell’articolo in esame, il 4 giugno è intervenuta la Commissione Europea rilasciando le tanto attese linee guida previste dal paragrafo 10 dell’art. 17. Le raccomandazioni della Commissione si concentrano principalmente sul limitare l’uso dei blocchi automatizzati ai soli casi di caricamenti manifestamenti lesivi del diritto d’autore, preservando così gli usi non lesivi, come caricature o parodie. Ancora prevedono l’introduzione di un sistema di verifica umana ex ante per limitare di fatto che il potere decisionale sia interamente demandato a un software. Ma per quanto concerne l’uso della tecnologia da impiegare invece non propongono una soluzione specifica.
Si limitano a citare altre tecnologie che consentono di rilevare contenuti non autorizzati, tra cui l’hashing, il watermarking, l’uso di metadati, la ricerca di parole chiave o una combinazione di diverse tecnologie.
La questione al vaglio della Corte di Giustizia EU.
A sciogliere i restanti nodi della regolamentazione sarà la Corte di Giustizia dell’Unione Europea. Attualmente, infatti, il governo della Polonia si è rivolta alla Corte di giustizia (causa C-401/19) per chiedere l’annullamento proprio dell’art. 17 della Direttiva Copyright. Il governo polacco ritiene che la norma violi i diritti fondamentali dei cittadini europei e chiede quindi di annullare l’obbligo di filtraggio di cui all’articolo in questione (art. 17 par. 4 lettere b) e c)), che porterebbe alla censura e alla limitazione della libertà di espressione dei cittadini, diritti garantiti dall’articolo 13 della Carta dei diritti fondamentali dell’UE.
Nell’iter processuale – non ancora concluso – il parere dell’avvocato generale (AG) Saugmandsgaard ha espresso forti critiche rispetto agli obblighi delle piattaforme di vigilare sulle violazioni del copyright dei loro utenti.
Sia la Commissione che il Consiglio hanno sostenuto che il meccanismo dell’art 17 debba essere interpretato nel senso che il filtraggio sia limitato ai soli usi diretti alla violazione del copyright, prevedendo una revisione umana – quindi non automatizzata – nei casi dubbi laddove i contenuti devono rimanere disponibili fino alla soluzione della controversia. In sintesi, le argomentazioni a sostegno della liceità della norma e condivise dall’avvocato generale, delle istituzioni europee sono le seguenti:
• le piattaforme possono bloccare preventivamente solo i contenuti la cui illegittimità sembra manifesta in base alle informazioni fornite dai titolari dei diritti;
• le piattaforme non possono escludere l’applicazione di eccezioni al diritto d’autore;
• la semplice accusa di violazione del diritto d’autore non è sufficiente a bloccare un contenuto.
Infine, l’AG ha anche precisato che la portata delle misure di filtraggio deve sempre essere delimitata dal divieto generale di filtraggio (art. 17, par. 8), per cui a una piattaforma può essere richiesto solo di ricercare contenuti che siano stati preventivamente accertati illegali da un tribunale o siano palesemente illeciti senza necessità di contestualizzazione. Trattandosi di questioni legali complesse, le piattaforme di condivisione non possono cioè essere obbligate a decidere sulla liceità dei contenuti caricati dai propri utenti.
A parere dell’AG sono pertanto gli Stati e dover stabilire regole chiare e precise che disciplinino le misure di filtraggio, evitando che le piattaforme si erigano a “polizia del copyright”. Non è infatti compito loro, peccando della necessaria indipendenza per sostituirsi ai giudici.
In sostanza, quello che viene descritto, è un meccanismo nel quale è fondamentale distinguere i contenuti manifestamente illeciti (da bloccare) e i contenuti leciti o semplicemente ambigui che non vanno bloccati a priori.
Conclusioni
Se il giudizio della Corte di Giustizia sarà quello di confermare la validità dell’articolo 17, ci si dovrà seriamente soffermare sulle implicazioni che questa decisione comporterà soprattutto per le piattaforme che oltre a dover implementare tecnologie ad hoc per le verifiche dei contenuti, dovranno preoccuparsi di essere conformi alla normativa privacy; ad esempio, effettuando una valutazione d’impatto per questo tipo di trattamento e aggiornando le proprie informative. Per esaminare le ricadute operative per le aziende che utilizzano questi servizi, quindi, dovremo aspettare la sentenza della Corte.