Eravamo a metà del secolo scorso quando Isaac Asimov formulava le tre Leggi della Robotica, quell’efficace espediente narrativo attraverso cui introdusse l’idea che la progettazione di macchine intelligenti avesse bisogno di qualche forma di regolamentazione.
D’altronde, senza pensare ad alcuni drammatici scenari delle storie fantascientifiche, abbiamo già avuto esperienza nella nostra storia più recente, del fatto che affidarsi all’intelligenza artificiale può determinare, oltre che innumerevoli vantaggi, anche diversi rischi per la nostra società. Non stiamo parlando di comportamenti devianti delle macchine in stile “HAL-9000”, ma innanzitutto di errori umani relativi alla scelta e all’organizzazione delle basi di dati, all’addestramento degli algoritmi, alla loro applicazione e al loro utilizzo: errori capaci di dare origine a varie forme di pregiudizio e discriminazione anche gravi, specie quando queste tecnologie vengono inserite, ad esempio, nell’automazione di servizi primari, o a supporto dei sistemi di giustizia, di vigilanza, o della gestione dei rapporti di lavoro.
Ecco perché la Proposta per un Regolamento in materia di Intelligenza Artificiale, presentata ieri 21 aprile 2021 dalla Commissione Europea (dopo che nella scorsa settimana ne era comparsa una bozza, divulgata prima dalla stampa e girata poi in maniera virale sui social), rappresenta un passo importante per un’Europa che vuole proiettarsi nel futuro in maniera sicura e consapevole.
Ecco una breve panoramica di alcuni suoi concetti e principi fondamentali.
Indice
Quali obiettivi si pone il nuovo Regolamento in materia di AI?
L’obiettivo perseguito è quello di creare condizioni proficue affinché il mercato europeo possa svilupparsi e adottare l’intelligenza artificiale in maniera compatibile con il diritto e i valori dell’Unione, salvaguardando la salute, la sicurezza, i diritti e le libertà fondamentali delle persone.
Nel documento vengono stabilite una serie di norme sull’immissione nel mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale, vietando alcune pratiche e determinandone alcuni parametri di rischio, a cui conseguono specifici requisiti e obblighi per gli operatori. Introduce poi alcune regole in materia di trasparenza per quei sistemi di intelligenza artificiale destinati a interagire con persone fisiche, o utilizzati per generare o manipolare immagini, audio o video.
Come viene definito un sistema di intelligenza artificiale?
Un sistema di intelligenza artificiale (o “sistema AI”) è definito come un software (sviluppato con specifici approcci, ad es. di machine learning, deep learning, logiche induttive e deduttive, stime statistiche, ecc., e progettato per operare con vari livelli di autonomia, come componente di un prodotto o su base autonoma) avente l’obiettivo di generare risultati, contenuti, previsioni, raccomandazioni capaci di influenzare ambienti reali o virtuali, e che possono servire ad automatizzare parzialmente o completamente alcune attività, servizi, e processi.
Quale sarà l’ambito di applicazione del Regolamento?
L’ambito di applicazione rispecchia quello già osservato per il GDPR, avendo come destinatari i fornitori e gli utilizzatori di sistemi AI nell’Unione stabiliti nell’Unione, così come fornitori e utilizzatori di sistemi AI stabiliti al di fuori dell’Unione, se i sistemi AI in oggetto riguardano persone che si trovano nell’Unione.
Quali pratiche sono espressamente vietate?
In linea generale, saranno considerate vietate le pratiche in contrasto con i valori dell’Unione o in violazione dei diritti fondamentali dell’Unione. Tra queste, rientrano innanzitutto i sistemi AI progettati o utilizzati con l’obiettivo di manipolare le persone, o sfruttarne le vulnerabilità, per indurre comportamenti, opinioni e decisioni dannose per l’utente. Si esclude poi la legittimità dei sistemi di sorveglianza indiscriminata e generalizzata delle persone fisiche (uso su larga scala di sistemi AI per monitorare, tracciare, intercettare, localizzare, intercettare dati e metadati raccolti in ambienti digitali o fisici), e viene bandito il c.d. “Social Scoring”, ovvero la valutazione/classificazione delle persone basate sul loro comportamento sociale o le caratteristiche di personalità, laddove portino a trattamenti pregiudizievoli in contesti scollegati da quelli in cui vengono raccolti i generati i dati originali, o a trattamenti sproporzionati alla gravità dei comportamenti sociali analizzati.
Quali sono i sistemi AI ad alto rischio?
Il Regolamento individua alcuni sistemi di intelligenza artificiale che classifica come “ad alto rischio”, stabilendo delle misure più rigide di conformità. Tra questi sistemi, ritroviamo in particolare quelli utilizzati:
• per l’identificazione biometrica a distanza di persone, in spazi accessibili al pubblico
• per la sicurezza nella gestione di infrastrutture pubbliche essenziali (es. strade, rete idrica, elettrica, gas)
• per valutare la priorità nell’invio di servizi di emergenza (es. vigili del fuoco, soccorsi medici)
• per valutare studenti, partecipanti a test d’ammissione, e determinare l’accesso a istituti di istruzione e formazione professionale
• per l’assunzione, la selezione, la valutazione di candidati a colloqui di lavoro o test professionali, o per prendere decisioni sulla promozione o la cessazione dei rapporti, nonché assegnare compiti, monitorare e valutare le prestazioni dei lavoratori
• per valutare l’affidabilità creditizia delle persone
• per richiedere, valutare l’ammissibilità, concedere o revocare prestazioni e servizi di assistenza pubblica
• nel contesto della giustizia per assistere i giudici in tribunale, o per prevenire, indagare, accertare o perseguire un reato, adottare misure che incidono sulla libertà personale, o per prevedere reati o disordini sociali allo scopo di organizzare il pattugliamento e la sorveglianza di un territorio
• per esaminare domande di asilo e di visto, o determinare l’ammissibilità delle persone a entrare nell’UE
Quali sanzioni sono previste?
Le sanzioni per la violazione del Regolamento saranno stabilite dai singoli Stati membri, secondo criteri di efficacia, proporzionalità e dissuasione. Il Regolamento, tuttavia, specifica già tre livelli di illecito a cui corrispondono diverse fasce di sanzioni amministrative pecuniarie, rispettivamente pari a un massimo di 30-20-10 milioni di euro o, nel caso di un’impresa, fino al 6%-4%-2% del fatturato mondiale totale annuo. Tra le violazioni più gravi, l’immissione sul mercato o la messa in servizio di un sistema che rientra tra le pratiche vietate. Il livello medio copre in maniera più generale gli obblighi di aderenza ai requisiti del Regolamento, mentre la fascia più bassa è dedicata ai casi di mancata cooperazione e informazione delle autorità competenti.