I sistemi basati su Intelligenza Artificiale sono ormai parte del nostro quotidiano: chatbot nei servizi clienti, algoritmi che supportano diagnosi e decisioni mediche, strumenti di selezione del personale, soluzioni per la logistica e la produzione, senza contare l’ampio spettro delle applicazioni generative. Per chi fa impresa o esercita una professione, l’AI rappresenta una promessa di efficienza e innovazione, ma anche un terreno di responsabilità, rischi e regole. Dopo l’approvazione del Regolamento UE sull’intelligenza artificiale (AI Act) nel 2024, il 23 settembre 2025 è stata introdotta la Legge n. 132/2025 contenente Disposizioni e deleghe al Governo in materia di intelligenza artificiale. In vigore dal 10 ottobre 2025, integrerà l’AI Act con previsioni specifiche per il nostro Paese. E tra i principali dilemmi di imprenditori e professionisti, nasce l’esigenza di capire cosa cambia davvero e come muoversi in un quadro normativo che rischia di diventare una sovrapposizione frammentata di obblighi.
Indice
Principi generali della Legge sull’AI: riconferme e novità
L’intenzione della Legge è di non essere un “doppione”, ma un completamento. Ricordiamo che, a differenza delle “Direttive” (es. NIS2), i “Regolamenti” UE come l’AI Act sono infatti già norma applicabile negli Stati membri. Certo, con la nuova legge vengono riprese definizioni e ribaditi principi già noti, e va detto che vari esperti e professionisti hanno già preso posizioni critiche o messo in allarme sul rischio di sovra-regolamentazione, e di confusione per i destinatari.
La legge italiana, ad ogni modo, esplicita chiaramente che “non produce nuovi obblighi rispetto a quelli previsti dal regolamento (UE) 2024/1689” (Art. 1.5). I princìpi più rilevanti non sono certo nuovi: controllo umano, trasparenza, non discriminazione, tutela dei dati personali. Sono e restano cardini dell’AI Act e, in parte, del GDPR. La Legge italiana tuttavia li rafforza, inserendoli nel contesto giuridico nazionale e nella cornice dei valori della Costituzione. Se ribadisce, per esempio, l’esigenza di adeguati livelli di cybersicurezza. Di garanzia per il pluralismo, l’imparzialità e l’obiettività dei mezzi di comunicazione. Di tutela dei minori (in particolare quelli di 14 anni, che hanno precisi limiti e divieti di accesso a strumenti AI). E in linea generale, emerge un quadro in cui risulta fortemente evidenziato il concetto di “human-in-the-loop”, ovvero l’impegno a prevenire situazioni in cui l’AI sostituisca la competenza, la decisione, il controllo umano.
La conseguenza pratica per le imprese, è comunque quella di non dover inseguire due regolamentazioni parallele. L’adeguamento all’AI Act resta il pilastro, e in ottica di compliance, conviene impostare processi e attività di aggiornamento guardando prima di tutto al quadro europeo. Per ambiti e contesti specifici, come in sanità, lavoro, professioni intellettuali, diritto d’autore, può poi essere utile approfondire sulle declinazioni concrete stabilite dalla norma nazionale.
In sanità, priorità al “Doctor-in-the-loop“
L’AI Act non è entrato fortemente nel merito della governance di sistemi basati su intelligenza artificiale in sanità. Il Regolamento europeo ha infatti principalmente rimandato alla regolamentazione specifica sui dispositivi medici, fatto salvo lo spirito generale di approccio alla tecnologia basato sul rischio.
Nella legge italiana, oltre a obblighi di trasparenza, sicurezza, affidabilità, l’aspetto più rilevante sembra invece da individuare nell’art. 7, par. 5. Lo human-in-the-loop, in sanità, si declina nella responsabilità ultima di ogni valutazione e decisione, che deve restare al medico. Un doctor-in-the-loop che consenta di evitare derive di automazione nei processi di prevenzione, diagnosi e cura:
5. I sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica. (Art. 7)
[ved. anche: Intelligenza Artificiale in corsia. Le norme da applicare ai sistemi AI in sanità]
Trasparenza e dignità del lavoratore
A differenza di quanto avviene per la sanità, l’ambito occupazionale è esplicitamente richiamato dall’AI Act per la classificazione dei sistemi AI. Quando l’intelligenza artificiale viene utilizzata in fase di selezione, di gestione del rapporto di lavoro, di valutazione delle prestazioni, ecc. si ha a che fare con un sistema “ad alto rischio”, con tutti gli obblighi e tutele previste.
La legge italiana richiama la dignità del lavoratore, la necessità di non discriminazione (attenzione ai “bias”!), e integra soprattutto gli elementi di trasparenza, inquadrandoli nell’ambito degli obblighi informativi, in capo al datore di lavoro, nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati. Insomma, un obbligo che dialoga con altri temi già noti nel dibattito italiano, anche quello relativamente recente, come la trasparenza sugli strumenti di lavoro digitali, l’uso di log e metadati, i limiti al controllo a distanza. Non basterà quindi che il software sia conforme a requisiti tecnici di sicurezza. Una delle principali sfide per le aziende, sarà riuscire a comunicare efficacemente le modalità di funzionamento, evitando di lasciare l’AI nella “scatola nera”.
Responsabilità e trasparenza per le professioni intellettuali
Avvocati, commercialisti, consulenti, sono tutti toccati dal nuovo decreto con un’indicazione netta. Anzi, due. Il ruolo “prevalente” nell’opera deve rimanere al professionista, che può servirsi del solo supporto dell’IA, a cui non può delegare integralmente. Dopodiché, va tutelato il rapporto fiduciario con il cliente, dichiarando in modo trasparente se e come lo strumento sia stato impiegato.
In quest’ambito, però, ci sia consentito un certo scetticismo. Più che introdurre nuovi obblighi, sarebbe sufficiente ricordare ancora una volta che l’AI è, appunto, solo uno strumento. Se da una parte, qualcuno potrebbe evocare il giustificato clamore che suscitano episodi come quelli che hanno visto avvocati richiamati per aver depositato atti interamente scritti dall’intelligenza artificiale… anche in quei casi, ciò che è emerso è soprattutto che un uso dell’intelligenza artificiale disinvolto e poco scrupoloso, incide inevitabilmente sulla qualità del lavoro (es. producendo testi generici, disorganizzati o privi dei necessari nessi logici; integrando riferimenti falsi o contenuti concettualmente scorretti).
[sul fenomeno delle “allucinazioni”, ved. Privacy e intelligenza artificiale: verso un uso responsabile dell’AI generativa]
Il senso generale è chiaro: un professionista che decide di impiegare l’AI deve farlo con consapevolezza. Allo stesso tempo, forse non serve una legge che inviti a “misurare” la percentuale di apporto umano e artificiale: probabilmente, ciò che va garantita, è sempre la capacità del professionista di assumere la piena paternità e, soprattutto, responsabilità del lavoro svolto, controllarne la qualità, la coerenza, l’affidabilità.
Tra certezze e attese future
Il decreto tocca anche altri ambiti (es. diritto d’autore, pubblica amministrazione e giustizia) che non abbiamo esaminato in questo articolo. Non solo, per alcune delle questioni più delicate si dovrà restare in attesa di ulteriori decreti legislativi previsti per i prossimi mesi. L’augurio è quello di evitare di cristallizzare una burocratizzazione di adempimenti che potrebbe far fatica a restare al passo con la rapida evoluzione tecnologica.
Resta il fatto che la legge italiana dovrebbe limitarsi solo ad accentuare alcuni profili, con richiami mirati a trasparenza, responsabilità umana e tutela dei diritti fondamentali, senza stravolgimenti rispetto alla regolamentazione europea.
Per le imprese, il messaggio chiave è però l’invito ad alzare il livello di attenzione: per garantire conformità e ridurre rischi tecnici, legali, e reputazionali, sarà sempre più importante saper seguire l’evoluzione normativa, investire in formazione interna, affinare le procedure di implementazione di strumenti e tecnologia, portare questi tema ai giusti tavoli di competenza.