È praticamente un “mantra” del GDPR: il consenso utilizzato per esprimere l’intenzione di accettare un trattamento di dati personali, dev’essere libero, specifico, informato e inequivocabile.
E proprio nel giorno in cui questa norma europea soffiava le sue tre prime candeline, la Corte di Cassazione le regalava una sentenza che affronta il tema della trasparenza applicata all’intelligenza artificiale. Così (anche in prospettiva del nuovo Regolamento europeo sull’AI, di cui abbiamo visto la proposta), si conferma ancora una volta che la disciplina sulla “privacy” continuerà a rappresentare un riferimento per il futuro e per le modalità con cui il progresso tecnologico e informatico si dovrà integrare nelle nostre vite.
Il caso della sentenza in questione ha riguardato una società che si è vista bocciare un complesso apparato di “rating reputazionale” di professionisti.
Prima di entrare nel merito, cerchiamo di capire attraverso un esempio concreto perché avere le giuste informazioni è fondamentale quando prendiamo una decisione o quando manifestiamo un’intenzione.
Immaginate di essere in un ristorante, avete appena finito di scorrere il menù e state decidendo quali pietanze chiedere al cameriere. Sul menù avete trovato le informazioni essenziali che vi servono per compiere una scelta consapevole: caratteristiche degli ingredienti, eventuali allergeni, quanto dovrete pagare a fine pasto. Potreste dire di aver fatto una scelta altrettanto consapevole, se vi mostrassero il prezzo, magari più salato delle aspettative, solo al momento del conto?
Torniamo quindi alla società di rating reputazionale. Nel caso in questione, il piatto sul menù scelto dagli interessati era l’accesso a un sistema di scambi e comunicazioni commerciali e professionali.
Il prezzo (invisibile): il funzionamento dell’algoritmo utilizzato per l’elaborazione del profilo reputazionale.
Che questa l’informazione sia essenziale, lo specificano oggi gli articoli 13.2.f) e 14.2.g) del GDPR, nei quali viene sottolineata l’importanza di dare indicazioni significative sulle logiche utilizzate nei casi di utilizzo di “processi decisionali automatizzati” (insieme alle loro conseguenze).
Detto in parole povere, il consenso per l’elaborazione dei propri dati personali dato a un programma che prenderà delle decisioni sulla base dei nostri stessi dati, non ha valore, a meno che non ci venga detto come funzioni realmente questo programma.
Poco importa che l’algoritmo funzioni correttamente, che sia efficiente, o che offra un servizio capace di soddisfare i requisiti del mercato. Certo, come abbiamo già visto affrontando la questione dell’algoritmo utilizzato da Deliveroo per valutare le prestazioni dei suoi lavoratori, lo sviluppo e la produzione di questi strumenti deve essere sempre guidato da una profonda riflessione e da un rigoroso e costante processo di analisi e verifica volto a prevenire errori di valutazione. Ma questa volta il focus è stato posto sulla liceità del trattamento, un elemento, quindi, ancora precedente.
Riprendendo le parole dei Giudici della Cassazione, il problema della liceità va affrontato fin dal momento dell’adesione alla piattaforma: “Non può logicamente affermarsi che l’adesione […] comprenda anche l’accettazione di un sistema automatizzato, che si avvale di un algoritmo, per la valutazione oggettiva di dati personali, laddove non siano resi riconoscibili lo schema esecutivo in cui l’algoritmo si esprime e gli elementi all’uopo considerati”.
È evidente, rendere chiara per le “persone della strada” la logica di un algoritmo può non essere sempre un dilemma facile da affrontare. Occorre tuttavia impegnarsi per rendere accessibili e tradurre in un linguaggio comune anche alcuni aspetti che tendiamo erroneamente a vedere come molto “tecnici”.
Immedesimarci nel nostro target e provare a rispondere a qualche domanda tipica può essere d’aiuto:
• Quali dati vengono selezionati dal nostro sistema di elaborazione automatica?
• Quali analisi sono effettuate su questi dati dal programma?
• Quali sono gli elementi determinanti che guidano la sua decisione finale?
È una questione di diritti… Ma siamo anche convinti che ricordarsi e mettere in pratica questo atto di impegno, per riuscire a “rendere chiaro qualcosa che sembra complicato” sia un principio utile, in generale, che se adeguatamente applicato può avere molte ripercussioni positive su tutta la governance di un progetto tecnologico.