Indice
Introduzione
L’AI si sta diffondendo sempre di più anche nel settore sanitario, offrendo opportunità non più trascurabili di migliorare diagnosi, trattamenti e gestione dei pazienti.
Ad oggi l’adozione di sistemi di AI sembra sia diventata un fattore competitivo, discriminante per rispondere tempestivamente alle richieste del mercato e alle scelte dei pazienti, logiche da cui neppure il settore medico-sanitario, soprattutto quello privato, può più prescindere.
Tuttavia l’integrazione di questi sistemi nella practice clinica non dev’essere frettolosa, in quanto porta con sé nuovi e significativi rischi, sia dal punto di vista prettamente medico-scientifico, ma anche, seppur secondariamente, dal punto di vista giuridico-legale.
Di tale secondo aspetto proveremo ad occuparci di seguito, in questa prima analisi della normativa rilevante ed applicabile ai sistemi di AI per il settore sanitario, a cui seguiranno altri approfondimenti dello Studio su temi correlati e dipendenti dal presente, sempre in ambito medico.
Il Regolamento europeo sull’Intelligenza Artificiale (AI Act)
Il Regolamento n° 2024/1689, è la normativa chiave per l’uso dell’intelligenza artificiale (AI) nel settore sanitario.
Questo regolamento, applicabile in tutti gli Stati membri senza bisogno di recepimento nazionale, è una norma orizzontale sulla tecnologia e non verticale su di un solo settore, ma ha comunque un forte impatto sul settore sanitario.
L’Ai Act, infatti, pone sempre la massima attenzione sulla protezione dei diritti fondamentali dell’uomo quali il diritto all’assistenza sanitaria emergenziale e alla non discriminazione dell’accesso alle cure.
Pratiche vietate e eccezioni in ambito medico
Il nuovo Regolamento stabilisce, all’art. 5, una lista di utilizzi vietati per i sistemi di AI, considerati incompatibili con i diritti fondamentali dell’uomo, tra cui appunto il diritto alla salute e all’autodeterminazione.
Ad esempio, è vietato sfruttare la vulnerabilità di una persona dovuta a disabilità o condizioni cliniche per manipolarne il comportamento. I fornitori e utilizzatori di AI nel settore medico devono quindi assicurarsi che i loro sistemi non rientrino in queste categorie vietate.
Tuttavia, l’AI Act prevede alcune eccezioni in considerazione dell’importanza del settore medico.
Le pratiche mediche vietate, come il trattamento psicologico delle malattie mentali con l’uso dell’AI, sono consentite se effettuate in conformità a leggi, standard medici e good clinical practice e con il consenso, se applicabile, dei pazienti o dei loro tutori.
Allo stesso modo, i sistemi di riconoscimento facciale ed emozionale sono permessi, ma solo per specifici scopi medici (art. 5 par. 1 lett. f).
Casi di esonero in sanità dagli obblighi per sistemi ad alto rischio
Inoltre, l’art. 6 par. 3 dell’AI Act introduce un caso di esonero dai requisiti e dagli obblighi per i sistemi di AI ad alto rischio, se questi sono utilizzati solo per
- compiti procedurali limitati,
- migliorare risultati già ottenuti da esseri umani, o
- rilevare deviazioni nei processi decisionali,
senza comunque sostituire il giudizio umano.
Tali ipotesi di esonero sono particolarmente rilevanti per le strutture sanitarie, poiché la maggior parte dei sistemi di IA usati per scopi amministrativi, come la gestione contabile o la classificazione di testi medici, difficilmente saranno classificati come ad alto rischio.
Punti di contatto tra l’AI Act e altre normative europee
L’AI Act però è solo un tassello (seppure al momento si presenti come il principale) nel più complesso puzzle del nuovo panorama regolatorio dedicato all’IA in Europa.
Il nuovo Regolamento dovrà dunque essere letto in coordinamento ed armonizzazione con numerose normative europee più settoriali già in vigore.
Nel novero di tali normative già in vigore ve ne sono alcune già ad oggi pienamente efficaci, anche in ambito medico e sanitario: andiamo dunque a vedere le più rilevanti per provare a individuare eventuali similitudini o differenze con l’AI Act.
AI Act e GDPR: punti di contatto e tensioni
L’AI Act e il GDPR condividono molti punti di contatto, ma anche alcuni punti di tensione, dato che l’AI per sua natura è guidata dai dati e basata su di essi.
Attualmente, il GDPR rimane pienamente applicabile a tutti i trattamenti di dati personali, anche quelli svolti utilizzadno sistemi di AI.
Entrambe le normative mettono al centro la responsabilizzazione, la privacy sin dalla progettazione e un approccio basato sulla valutazione dei rischi in costante evoluzione.
Proprio in tema di Valutazione dell’Impatto sulla Protezione (VIP), come avevamo già rilevato in un altro approfondimento, sia il GDPR che l’AI Act richiedono una valutazione d’impatto preventiva in caso di trattamento o di modello rischioso.
La valutazione di cui all’art. 35 del GDPR è più specifica, focalizzata sulla protezione dei dati personali e dei connessi diritti degli interessati, mentre quella ex art. 27 dell’AI Act ha un respiro più ampio, riguardando la protezione del novero dei diritti fondamentali dell’uomo.
Proprio per tale rapporto di continenza, non è da escludere che laddove si dovessero applicare entrambe le normative, tutti e due i requisiti possano essere soddisfatti con un’unica valutazione integrata e di ampio respiro.
La VIP prevista dall’AI Act potrebbe contenere anche quella prevista dal GDPR, senza necessità di un documento separato, essendo ormai innegabile che nell’attuale società digitale anche il diritto alla privacy abbia assunto il grado di diritto fondamentale dell’uomo.
Supervisione umana e punti di tensione tre AI Act e GDPR
Altro punto chiave d’incontro è la supervisione umana, nonostante la sua attuazione sia resa difficile in quanto, soprattutto in ambito sanitario, richiede personale altamente qualificato e formato, di cui attualmente non c’è abbondanza.
Dunque, fintanto che l’AI Act non diverrà pienamente operativo, sarà l’art. 22 del GDPR a garantire l’efficacia del diritto a non subire decisioni significative basate esclusivamente su trattamenti automatizzati di dati personali.
Questo principio del GDPR, però, non copre tutti i casi d’uso dell’AI, essendo necessaria una sua rilettura applicativa specifica per ogni applicazione clinica dei sistemi di AI da parte degli utilizzatori.
L’AI Act introduce anche principi già presenti nel GDPR, come la limitazione delle finalità e la minimizzazione dei dati, adattandoli alle specifiche esigenze dell’AI.
Tuttavia, ciò può generare conflitti interpretativi con i principi sanciti dall’art. 5 del GDPR.
Si pensi ad es. al difficile bilanciamento del principio di minimizzazione dei dati personali con le logiche dei sistemi più avanzati di AI, come i LLM e gli algoritmi di Deep Learning, che richiedono enormi quantità di dati per il loro addestramento e per il loro continuo miglioramento.
AI Act e NIS 2: verso un obbiettivo comune
La NIS 2 richiama all’adozione delle più recenti norme europee e internazionali, lasciando in questo modo spazio all’AI Act di apportare il proprio contributo integrativo.
Quindi, all’entrata in vigore delle norme nazionali di recepimento della NIS 2, le strutture sanitarie e i laboratori di analisi che dovranno rivedere la propria sicurezza informatica in linea con la normativa NIS 2, dovranno includervi pure i sistemi di AI usati, anche se non classificati ad alto rischio.
Sia secondo l’AI Act che secondo la NIS 2, il rischio cyber è innanzitutto una questione di governance e di gestione della supply chain.
I sistemi AI ad alto rischio, non rari in ambito sanitario, dovranno gestire e mitigare tutti i rischi di cybersecurity sia a livello del sistema complessivo che dei singoli componenti (AI o non AI).
Secondo l’art. 9 dell’AI Act, la resilienza informatica per i sistemi ad alto rischio deve essere garantita con misure complementari, combinando pratiche consolidate di cybersecurity con innovazioni specifiche per l’IA.
È dunque essenziale minimizzare i rischi di manomissione, prevenendo attacchi informatici, fisici o logici che possano alterare l’uso, le prestazioni e l’output del sistema di AI in ambito medico.
A quali soggetti del settore sanitario si applicano entrambe le normative?
Come già visto in un precedente approfondimento, la Direttiva NIS 2 sarà applicabile, attraverso la normativa di recepimento, ai fornitori di dispositivi medici, dispositivi medico-diagnostici in vitro, dispositivi indossabili, soluzioni di telemedicina e software medici. Se pero essi saranno potenziati dalla AI, anche l’AI Act sarà applicabile.
Con la L. 90/2024, di cui vi abbiamo parlato in un precedente articolo, il legislatore italiano parrebbe inoltre aver esteso la NIS 2 anche alle Aziende Sanitarie Locali, influenzando indirettamente anche le strutture private accreditate con esse.
L’applicabilità della NIS 2 a tali soggetti, protagonisti del settore sanitario, comporta l’obbligo, a prescindere dal fatto che usino o no AI ad alto rischio, di adottare, tra gli altri:
- policy e procedure per la gestione e l’analisi dei rischi e della sicurezza informatica,
- piani di continuità operativa e disaster recovery, e
- clausole contrattuali di sicurezza lungo la catena di approvvigionamento.
Per i soggetti destinatari destinatari della NIS 2 che intendano sviluppare sistemi di AI ad alto rischio in ambito medico, l’art. 9 par. 10 dell’AI Act consente di dimostrare la conformità ai requisiti richiesti dal nuove Regolamento stesso anche solo aggiornando ed integrando le procedure di gestione del rischio già adottate ai sensi delle normative europee, tra cui appunto la NIS 2.
In questo modo, anche qui, sarà possibile dunque integrare i requisiti delle due normative in un unico documento aggiornato in un’ottica di più ampio respiro, evitando di dover redigere documenti separati.
AI Act e MDR: i rischi di una doppia regolamentazione sono stati davvero evitati?
Nel settore medico, infine, l’AI Act ha numerosi punti di contatto con il Medical Device Regulation (MDR) e con la In Vitro Diagnostic Medical Device Regulation (IVDR).
I sistemi di AI in ambito sanitario possono essere classificati come ad alto rischio in due casi:
- Quando il sistema di AI è un componente di sicurezza o è esso stesso un prodotto regolato dalle altre norme armonizzate europee indicate nell’apposito Allegato I, tra cui appunto troviamo la MDR e la IVDR.
- Quando l’uso del sistema di AI è elencato tra quelli ad alto rischio nell’Allegato III dell’AI Act, in quanto presenta significativi rischi per salute, sicurezza o diritti fondamentali.
In base alla destinazione d’uso definita dal fabbricante (detto fornitore nella terminologia dell’AI Act), i sistemi di AI in ambito medico, ivi inclusi anche i software stand-alone, possono essere classificati come dispositivi medici secondo la MDR.
Generalmente, solo i software con una finalità medica diretta e specifica si qualificano come dispositivi medici.
I dispositivi medici classificati in Classe IIa o superiore secondo la MDR, che siano basati su (o contengano) sistemi di AI, sono classificati come sistemi di AI ad alto rischio per espressa previsione normativa. Perciò essi dovranno rispettare al contempo sia la MDR che l’AI Act.
In tali circostanze, però, l’AI Act stesso prevede che la conformità venga verificata nell’ambito delle stesse procedure previste dalla MDR, evitando la duplicazione degli audit.
A tal proposito, è previsto che gli organismi notificati competenti per i dispositivi medici possano valutare anche la conformità all’AI Act, purché abbiano competenze adeguatamente valutate e riconosciute.
Sistemi di gestione della qualità e del rischio
L’AI Act prevede la possibilità di utilizzare un unico documento tecnico per dimostrare la conformità a entrambe le normative, sistematizzato all’intero della procedura di gestione della qualità e dei rischi.
I fabbricanti di dispositivi medici che abbiano già valutato la conformità alla MDR dei loro dispositivi già contenti sistemi di AI all’interno (o in corso di implementazione), quando l’AI Act diverrà pienamente operativo, potranno ‘solamente‘ aggiornare la documentazione esistente per includervi i requisiti del nuovo Regolamento.
Come si sta approcciando il legislatore italiano a questo mutato panorama normativo sovranazionale?
Il Decreto PNRR
Il legislatore italiano ha iniziato ad adattarsi al mutato contesto normativo europeo, seppure indirettamente, sin dal Decreto PNRR.
Questo decreto ha modificato il Codice Privacy, ridefinendo le basi giuridiche per il trattamento dei dati personali per fini di rilevante interesse pubblico.
Tale modifica pone le basi affinché i prossimi provvedimenti normativi secondari possano andare a definire un ambiente di trattamento coerente, legittimo e sicuro all’interno del quale mettere a disposizione dati anonimi o pseudonimizzati per sviluppare sistemi di AI al servizio della sanità digitale nazionale, utilizzabili dai player istituzionali (Ministero della Salute, ISS, AGENAS, AIFA, Regioni, Province autonome) per le rispettive finalità pubbliche.
Il Decreto PNRR, inoltre, sembra aver ridato slancio ai lavori commissionati dall’AGENAS (Agenzia nazionale servizi sanitari regionali) per sviluppare una Piattaforma di intelligenza artificiale a supporto dell’assistenza sanitaria primaria.
Questi lavori erano stati interrotti a causa della mancanza di una base giuridica adeguata, come evidenziato d’ufficio dal Garante Privacy, rappresentata da una norma nazionale che precisasse i tipi di dati trattabili, le operazioni eseguibili, il motivo di interesse pubblico rilevante e le misure specifiche per tutelare i diritti fondamentali degli interessati.
Il progetto era presentato come un’infrastruttura innovativa per supportare i professionisti sanitari e monitorare l’evoluzione clinica degli assistiti attraverso un cruscotto di indicatori chiari e sintetici.
Questo sistema potrà essere utilizzato sia dai professionisti dell’assistenza sanitaria primaria che dai pazienti, con l’obbiettivo di migliorare l’efficienza del servizio sanitario.
Il DDL AI
Della Piattaforma AI dell’AGENAS si occupa anche l’art.9 del DDL AI licenziato ad aprile dal Consiglio dei Ministri, rimasto per ora una mera proposta di legge, forse anche per le critiche ricevute.
Anche il Garante privacy ha condizionato il proprio parere al recepimento dei numerosi punti di miglioramento del DDL AI, finalizzati a proteggere meglio la privacy dei pazienti e rendere la formulazione normativa più coerente e organica.
Un punto controverso è l’art. 8 del DDL, che prevede che solo enti pubblici e privati senza scopo di lucro siano autorizzati, nello sviluppo di sistemi di AI in ambito sanitario, a trattare dati personali in forza della base giuridica del pubblico interesse o del secondary use, previo comunque parere favorevole del Comitato Etico e comunicazione al Garante.
Questa proposta, definito perfino discriminatoria, escluderebbe dunque senza motivi espliciti ed obbiettivi la sanità privata e la ricerca scientifica sponsorizzata.
Il DDL, inoltre, non affronta neppure il coordinamento con il Regolamento sullo Spazio europeo dei dati sanitari, approvato il 24 aprile 2024 e in attesa di pubblicazione.
Il Garante, dunque, rivendica il proprio ruolo nella governance dei trattamenti di dati personali svolti mediate sistemi di AI, in quanto una frammentazione delle Authority competenti sulla AI non gioverebbe alla certezza del diritto, anzi complicherebbe ancora di più una materia già complessa.
Il decalogo del Garante privacy
Era stato infatti il Garante, con il decalogo dello scorso settembre, ad enucleare i principi cardine meramente ribaditi dal DDL AI, per di più in modo generico e non esaustivo.
Tra i principi cardine, enunciati nel decalogo, per governare l’utilizzo di algoritmi e di strumenti di AI in ambito sanitario, possiamo ricordare:
- La conoscibilità: i pazienti devono poter comprendere se e come vengono utilizzati processi decisionali automatizzati, nonchè le loro logiche di funzionamento.
- La preferenza per dati sintetici o anonimi e limitazioni sull’uso (divieto generale di trasmissione, trasferimento o comunicazione) e sulla conservazione dei dati sanitari.
- Il necessario intervento umano: soprattutto in ambito sanitario, dovrebbe sempre essere garantito che il professionista sanitario possa davvero controllare, validare, smentire o criticare la decisione algoritmica prima che sia sottoposta al paziente.
- Non discriminazione algoritmica: il titolare del trattamento deve usare AI affidabili che dimostrino di analizzare periodicamente, gestire e minimizzare errori, opacità e bias.
Conclusioni
Le responsabilità legate all’uso dell’AI in ambito sanitario e non solo stanno anch’esse per essere ridefinite a livello europeo.
Due nuove direttive sono in fase di discussione: una aggiornerà la disciplina sulla responsabilità per danno da prodotto difettoso, adattandola alla nuova quotidianeità digitale; l’altra introdurrà regole comuni in tutta l’UE per i danni causati dall’AI.
Queste proposte mirano a garantire che utenti e pazienti possano rifarsi efficacemente dei danni subiti attraverso regole chiare e comuni, tenendo particolarmente in considerazione la complessità della filiera dell’AI in sanità.
Gli stakeholders che forniscono, distribuiscono o utilizzano sistemi di AI devono monitorare l’evoluzione normativa e l’emissione di linee guida e standard tecnici, valutando attentamente l’ambito di applicabilità dell’AI Act e analizzando nel dettaglio le differenze con la MDR, la IVDR e le altre norme viste finora.
Il nostro Studio è pronto per aiutarvi a navigare in questo panorama di regole in continua evoluzione, offrendovi consulenza specializzata per perseguire la compliance e sfruttare al meglio le opportunità offerte dall’AI.
Contattateci per un’assistenza legale su misura per le vostre esigenze aziendali.