Indice
Caratteristiche dell’AI Act: per una human-centered AI
L’obiettivo dell’Artificial Intelligence Act (“AI Act”) è di favorire il mercato interno e migliorare l’ecosistema per lo sviluppo dell’AI, partendo dal presupposto fondamentale che l’intelligenza artificiale debba essere al servizio dell’uomo, seguendo un approccio centrato sull’essere umano.
Pertanto, tutti i soggetti e gli attori lungo la catena del valore dell’AI devono garantire che l’AI sia sempre orientata a beneficiare l’uomo e mai a nuocerlo.
[Si veda anche Regolamento UE sull’intelligenza artificiale: obiettivi, divieti, sanzioni]
Extraterritorialità e ambito di applicazione dell’AI Act
L’AI Act, come il GDPR, stabilisce regole che devono essere seguite dagli operatori economici che:
- Immettono sul mercato o mettono in servizio nei paesi dell’Unione Europea sistemi di AI, indipendentemente dal fatto che siano stabiliti o ubicati nell’UE o extra-UE;
- Hanno sede o sono situati all’interno dell’UE e producono output utilizzati nell’UE;
Si applica anche ad altri soggetti della catena produttiva dell’AI e a tutte le persone europee che sono coinvolte o impattate dall’output di un sistema di AI.
La decisione del legislatore europeo di superare il principio dello stabilimento del fornitore (che darebbe spazio ad usi strumentali dell’esternalizzazione dello sviluppo extra-UE) è opportuna, considerando l’intenzione dell’Europa di fungere da esempio regolamentare in questo settore.
Le aziende extra-europee, per poter accedere al mercato europeo (che seppure ridimensionato in prospettiva globale rimane ancora imprescindibile), dovranno applicare le regole dell’AI Act. Ciò potrebbe portare anche ad una diffusione di queste regole in altri contesti normativi sprovvisti di regole ad hoc.
Ma a chi si applica precisamente l’AI Act?
Principali ruoli e responsabilità
L’AI Act si applica in primis ai “provider” (che, consapevoli della semplificazione, chiameremo “fornitori”) e ai “deployer” (o, sempre semplificando, “distributori”) di sistemi di AI.
Inoltre si applica anche ai produttori che introducono nel mercato europeo o utilizzano direttamente un sistema di AI nell’UE, sia come prodotto autonomo che integrato in un altro, e con il proprio marchio, oltre che ai rappresentanti autorizzati dei produttori di sistemi di AI non stabiliti in UE.
2.1) Provider
I “provider” sono individui o entità giuridiche che progettano, sviluppano o producono sistemi di AI per uso diretto o per distribuzione sul mercato europeo, a titolo gratuito o a pagamento. In caso di gravi incidenti, sono soggetti a obblighi di segnalazione alle autorità di vigilanza degli Stati membri dell’UE, similmente a quanto avviene nel GDPR. Tra le loro responsabilità e i loro obblighi di conformità possiamo ricordare, senza pretesa di esaustività:
Valutazione del rischio: I fornitori di tutte le tipologie di AI sono tenuti a valutarne la conformità prima di metterli sul mercato o in servizio, al fine di individuare la classe di rischio in cui rientrano.
Documentazione e trasparenza: Devono mantenere una documentazione completa sulle caratteristiche e le procedure di sicurezza dei loro sistemi di AI e fornire informazioni chiare agli utenti su come il sistema elabora i dati e prende decisioni.
Monitoraggio e segnalazione: Devono monitorare costantemente i loro sistemi di AI sul mercato e correggere tempestivamente eventuali problemi di conformità o nuovi rischi derivanti dal loro uso concreto.
Cooperazione con la supply chain: I fornitori di General Purpose AI (GPAI) – come ChatGPT – devono cooperare con altri operatori di AI ad alto rischio basati su tali sistemi di GPAI per consentire una corretta compliance lungo tutta la supply chain.
Assistenza e informazioni tecniche: Devono fornire assistenza e informazioni tecniche, anche riservate e confidenziali, per consentire agli altri fornitori nella supply chain di rispettare gli obblighi normativi, senza che ciò possa comunque compromettere i diritti IP dei provider.
2.2) Provider ad alto rischio
Inoltre, sono previsti specifici obblighi per i provider di base models AI e di AI ad alto rischio, tra cui:
- Garantire che i loro sistemi di base models AI e di AI ad alto rischio rispettino i requisiti specifici dell’AI Act, indipendentemente dal modo in cui vengono forniti.
- Prevedere e mitigare i rischi prevedibili durante lo sviluppo, incluso l’impatto sulla democrazia, le libertà fondamentali e lo Stato di diritto, coinvolgendo esperti indipendenti e documentando i restanti rischi non attenuabili dopo lo sviluppo.
- Utilizzare solo dati di training soggetti a idonee misure di governance dei dati per i modelli di base, valutando l’adeguatezza delle fonti di dati allo scopo e attenuando eventuali distorsioni.
- Progettare e sviluppare i loro sistemi per ottenere livelli adeguati di prevedibilità, interpretabilità, correggibilità e cybersicurezza.
- Applicare tecnologie disponibili per ridurre il consumo di energia, di risorse e la produzione di rifiuti durante il ciclo di vita del sistema di AI, e, se possibile, misurare il suo impatto ambientale.
- Adottare un sistema di gestione della qualità che elenchi le politiche e le procedure per dimostrare la conformità al Regolamento del sistema di AI ad alto rischio.
- Conservare i log generati automaticamente dal sistema, se disponibili per il fornitore.
- Registrare il sistema nella banca dati dell’Unione Europea dei sistemi ad alto rischio e apporvi la marcatura CE, sotto la propria responsabilità, se conforme all’AI Act.
2.3) Deployer
I “deployer” sono persone o entità, anche P.A., che utilizzano o rendono disponibili sotto la propria autorità sistemi di AI agli utenti sul mercato, esclusi i fornitori o gli importatori, tranne nei casi di utilizzo personale non professionale.
Le loro principali responsabilità, che completano e specificano quelle dei fornitori, includono:
Adozione di misure tecniche ed organizzative appropriate per garantire l’uso corretto dei sistemi di AI ad alto rischio, in relazione anche alle istruzioni d’uso fornite dai provider.
Monitoraggio del funzionamento dei sistemi di AI e intervento tempestivo per mitigare eventuali rischi o danni.
Gestione della documentazione per dimostrare la conformità normativa ed alle istruzioni d’uso ricevute dal provider e delle misure adottate per adeguarvisi.
Garantire che il personale incaricato di implementare le istruzioni d’uso e la sorveglianza umana abbia la formazione e i profili autorizzativi necessari.
Proteggere i diritti fondamentali essendo sono meglio posizionati per capire come verranno utilizzati ad esempio sistemi ad alto rischio e potendo identificare più da vicino potenziali rischi non previsti nella fase di sviluppo.
Informare le persone coinvolte dell’utilizzo di sistemi di AI ad alto rischio nelle procedure decisionali impattanti sui loro diritti, informandoli altresì sullo scopo e sul loro diritto di ottenere maggiori informazioni.
2.4) Altri ruoli
Sono presi in considerazione e definiti vari altri stakeholder che fanno parte della filiera produttiva dell’AI, ciascuno con responsabilità specifiche:
- Gli Importatori: persone fisiche o giuridiche situate nell’UE che introducono nel mercato interno un sistema di AI che porta il nome o il marchio di un’altra entità situata al di fuori dell’UE.
- Il Rappresentante autorizzato: persone fisiche o giuridiche stabilite in UE che hanno ricevuto e accettato un mandato scritto da un fornitore extra-UE di sistemi di AI o di GPIA per svolgere gli obblighi stabiliti dall’AI Act per conto del fornitore.
- Il Fabbricante di prodotti: entità commerciali responsabili della produzione di prodotti finali rientranti nel nuovo quadro legislativo settoriale europeo che incorporano un sistema di AI ad alto rischio come componente di sicurezza. Devono garantire che i sistemi di AI ad alto rischio nei loro prodotti finali siano conformi ai requisiti stabiliti dall’AI Act.
Allocazione delle responsabilità lungo la catena di valore dell’IA
Come possiamo vedere dai brevi cenni sopra esposti, sebbene i deployer debbano comunque verificare le garanzie e le rappresentazioni dei provider, l’AI Act si concentra principalmente sugli obblighi applicabili a questi ultimi.
La corretta qualificazione come provider o come deployer ha però significativi impatti in termini di esposizione ai rischi in caso di contestazioni da parte di competitors, ex partner commerciali e Authorities.
È ragionevole presumere che le aziende, soprattutto le PMI, preferiscano rientrare nel paradigma dei deployer poiché la maggior parte delle responsabilità e degli obblighi di conformità previsti dall’AI Act sono a carico dei provider.
Tuttavia, tale qualifica potrebbe risultare solo apparentemente meno onerosa.
Per quanto riguarda i sistemi di AI ad alto rischio, l’AI Act prevede infatti che qualsiasi distributore, importatore, utilizzatore o altra terza parte (“deployer”) sia considerato un fornitore (“provider”) e sia soggetto a tutti i rispettivi obblighi di compliance in alcune determinate circostanze. Vediamole insieme:
- se appongono il loro nome o marchio su un sistema di AI ad alto rischio già immesso sul mercato o messo in servizio. Tuttavia, l’AI Act prevede che siano fatti salvi gli accordi contrattuali che stabiliscono una diversa assegnazione degli obblighi. Rimane ancora da chiarire se tale norma si riferisca, come sembrerebbe, alle sole responsabilità interne tra le parti coinvolte nei sistemi AI ad alto rischio; oppure se si riferisca anche alle responsabilità esterne nei confronti degli utenti. In tale ultimo caso le previsioni normative accennate prima rimarrebbero spesso e volentieri frustrare, permettendo alle BigTech di addossare tutti gli elevati rischi, obblighi ed oneri ai deployer.
- se apportano una modifica sostanziale a un sistema di AI ad alto rischio in modo tale, però, che rimanga pur sempre un sistema di AI ad alto rischio;
- se modificano la destinazione d’uso di un sistema di AI, ivi compreso un sistema di GPAI, che non è stato classificato come ad alto rischio e che è già stato immesso sul mercato o messo in servizio, in modo tale però da renderlo ad alto rischio.
In queste circostanze, il fornitore che ha inizialmente messo sul mercato o in servizio il sistema di AI ad alto rischio in questione non sarà più considerato come il suo fornitore ai sensi dell’AI Act, ruolo che passerà invece in capo al deployer che vi ha apportato tali modifiche sostanziali. Ed il nuovo provider assumerà a tutti gli effetti gli oneri, gli obblighi e le responsabilità di conformità all’AI Act tipiche di tale ruolo.
Ciò si applicherebbe anche nel caso in cui, ad esempio, la non conformità del sistema di AI ad alto rischio derivasse dal fornitore originario: in questo caso, pertanto, il nuovo fornitore diverrà responsabile delle carenze di conformità del fornitore originario.
Affinché il nuovo fornitore possa adempiere pienamente ai propri obblighi, l’AI Act ha previsto che tali obblighi di cooperazione, assistenza e discovery siano specificati in un accordo scritto (che prevederà stringenti obblighi di riservatezza e non divulgazione) i cui contenuti minimi sono normativamente predeterminati, con tecnica legislativa simile a quella adoperata per l’art. 28 del GDPR.
Tali obblighi si applicano anche ai terzi che forniscono sistemi, strumenti, servizi, componenti o processi di AI integrati nei sistemi ad alto rischio, e ai fornitori di modelli di GPAI al fine di facilitare la loro integrazione nei prodotti a valle.
Queste dinamiche lungo la catena di valore dell’AI richiedono un’attenta riflessione nella formulazione delle clausole contrattuali negli accordi che coinvolgono i fornitori originali, consentendo l’uso, la modifica e la manipolazione dei propri sistemi di AI, anche di quelli ad alto rischio.
3.1) Il confine tra provider e deployer: come determinare i ruoli nell’AI Act?
Dunque, una delle domande più spinose al momento risulta essere: “Sono un provider o un deployer?”
Come nel GDPR, la qualifica corretta di un’azienda non può essere stabilita contrattualmente, ma dipende dalle circostanze effettive.
In certa misura, il ruolo nell’AI Act segue anche come il sistema AI viene commercializzato, presentato ed immesso sul mercato, poiché presentare un sistema come “Alfa Chatbot” rende l’azienda Alfa responsabile per il comportamento di quel particolare chatbot (oltre che per la sua marcatura CE), a meno che non abbia, come abbiamo visto, un contratto con il fornitore originario che stabilisca diversamente.
In generale, i distributori (“deployer”) devono principalmente garantire la conformità CE dei sistemi di AI altrui che utilizzano, distribuiscono e implementano. È quindi ragionevole che assumeranno sempre maggiori responsabilità quanto più impattanti e rilevanti saranno le modifiche al modello fondamentale del sistema di AI che effettueranno.
Buona parte dei casi di “switch” da deployer a provider dipenderanno dall’interpretazione data all’attività di “modifica sostanziale” del sistema di AI.
Ma il Regolamento non avrebbe mai potuto fornire un elenco chiuso e predeterminato delle modifiche sufficienti per raggiungere e superare tale soglia, in quanto sarebbe presto divenuto obsoleto o riduttivo. Lasciando aperta la formulazione, spetta quindi alle parti riempirla nei propri contratti (e soprattutto negli allegati tecnici) con casistiche e divieti oltre i quali il deployer non potrà andare se non vorrà assumere, a sua volta, il ruolo di nuovo provider del sistema AI.
Di conseguenza, un notevole livello di personalizzazione di un sistema di AI richiesto da un’azienda (sia che il sistema AI venga immesso sul mercato, sia che esso sia semplicemente messo a servizio dalla stessa azienda) potrebbe portare l’azienda ad essere riconfigurata come provider, anche se ha completamente esternalizzato l’attività di sviluppo.
Ciò potrebbe ad esempio succedere nel sempre più frequente caso in cui un’azienda richieda ad un fornitore di un modello base di AI di sviluppare e soprattutto di addestrare un sistema su dati forniti dall’azienda stessa, la quale si assume quindi il rischio e la responsabilità di fornire un dataset di training opportunamente epurato da materiale protetto da copyright, segreti commerciali o informazioni confidenziali altrui, per creare un ambiente sicuro su cui avere maggior controllo dei contenuti e degli output.
In una tale evenienza, all’entrata in vigore dell’AI Act, sarà davvero difficile sostenere che l’azienda si qualifichi ancora come “semplice” deployer dopo aver imposto così specifiche e sostanziali istruzioni al provider originario.
Ovviamente, però, una soluzione predeterminata per ogni scenario non esiste e bisognerà sempre valutare caso per caso.
Ruoli nell’AI Act e nel GDPR: sfide operative dovute alla separazione dei ruoli.
C’è un ultimo aspetto su cui ci preme soffermarci a proposito dei ruoli previsti dall’AI Act.
Infatti gli obblighi per i fornitori e i distributori di sistemi di AI non sono influenzati dal loro eventuale ruolo di titolari o responsabili del trattamento dei dati personali ai sensi del GDPR, quando la progettazione, lo sviluppo o l’uso dei sistemi di AI comportano un trattamento di dati personali.
E’ ragionevole presumere che le aziende nella catena del valore dell’AI tenderanno a dare un’interpretazione coerente e prevedibile degli eventuali ruoli privacy dei fornitori e dei distributori di sistemi di AI.
Tuttavia, situazioni concrete potrebbero far sì che il deployer, specialmente nei casi di switch, assuma più o meno inaspettatamente il ruolo di titolare del trattamento, nonostante il suo ruolo tipico sembri essere più vicino a quello del responsabile del trattamento (almeno in astratto).
Ciò è dovuto in parte al fatto che il GDPR regola orizzontamente un diritto generale quale il diritto alla privacy, mentre l’AI Act regola in maniera più verticale una tecnologia specifica quale l’intelligenza artificiale.
Pertanto, le aziende dovranno rispettare contemporaneamente gli obblighi di compliance multi-level derivanti da entrambe le fonti normative.
Infatti l’AI Act si integra nel quadro normativo già regolato dal GDPR senza andarlo a sostituire o a porsi in alternativa, ma anzi aggiungendo ad esso ulteriori dettagli e requisiti specifici
Considerazioni finali
Risulta dunque essenziale adottare precauzioni ben ponderate, sia clausole contrattuali che misure interne tecniche ed organizzative, per gestire e prevedere i rischi di c.d. “switch”, soprattutto in casi limite quali indagini da parte delle autorità di controllo o controversie con clienti, partner commerciali o concorrenti.
La determinazione del ruolo di fornitore o distributore rappresenta una delle sfide più significative per coloro che si confrontano con l’AI Act, insieme all’identificazione delle classi di rischio cui appartiene il sistema di AI in valutazione.
Siamo qui per aiutare coloro che stanno considerando lo sviluppo, l’implementazione, la distribuzione o l’importazione di sistemi di AI.
Offriamo un confronto approfondito e proficuo sul ruolo potenziale da assumere e assistenza per adempiere agli obblighi normativi che coinvolgono le aziende lungo la catena del valore dell’IA.
Per accompagnare le aziende e le realtà del tessuto imprenditoriale nazionale fino alla piena entrata in vigore dell’AI Act nel 2026 è altresì disponibile la nostra newsletter dove tratteremo periodicamente le implicazioni pratiche ed operative da esso derivanti.