Il Senato lo scorso 17 settembre ha finalmente – dopo oltre un anno di lavori parlamentari, tre votazioni –approvato la legge italiana sull’Intelligenza Artificiale (n. 132/2025), pubblicata già sulla Gazzetta ufficiale del 25 settembre scorso e destinata a integrare le norme dell’AI ACT.
La legge si fonda su princìpi di uso antropocentrico, trasparente e sicuro dell’IA, con particolare attenzione a innovazione, cybersicurezza, accessibilità e tutela della riservatezza. Interviene in modo organico su più settori che possono beneficiare di questa nuova tecnologia – sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – prevedendo garanzie di tracciabilità, responsabilità umana e centralità della decisione finale di una persona fisica. In 28 articoli suddivisi in sei capi, la legge affronta il tema della digitalizzazione dei sistemi e dell’entrata dell’AI nei settori di P.A. e privato.
Sul piano della governance, la norma designa Agenzia per la Cybersicurezza Nazionale (ACN) e Agenzia per l’Italia Digitale (AgID) quali Autorità nazionali competenti: ACN vigila – con poteri ispettivi – sull’adeguatezza e la sicurezza dei sistemi, AgID gestisce le notifiche e promuove casi d’uso sicuri per cittadini e imprese, in un quadro di coordinamento interistituzionale stabile.
Il provvedimento istituisce inoltre un meccanismo di programmazione strategica: la Strategia nazionale per l’IA sarà predisposta e aggiornata con cadenza biennale dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio, con il supporto di ACN e AgID e il coinvolgimento delle principali autorità settoriali. A rafforzarne la trasparenza è previsto un monitoraggio annuale al Parlamento.
Per accelerare competitività e adozione, la legge attiva un programma di investimenti da 1 miliardo di euro a favore di startup e PMI nei campi dell’IA, della cybersicurezza e delle tecnologie emergenti, sostenendo trasferimento tecnologico e filiere strategiche.
“L’Italia è il primo Paese UE con un quadro nazionale pienamente allineato all’AI Act. È una scelta che riporta l’innovazione nel perimetro dell’interesse generale, orientando l’IA a crescita, diritti e la piena tutela dei cittadini. Alle imprese diciamo con chiarezza: investite in Italia. Troverete una governance affidabile, regole trasparenti e un ecosistema pronto a sostenere progetti concreti in tutti i settori chiave del Paese”si legge sul sito del Governo.
I punti chiave della legge
Principi e tutele: uso antropocentrico e sicuro; trasparenza, accessibilità e protezione dei dati.
Settori applicativi: sanità (centralità del medico, dati per ricerca), lavoro (osservatorio e dignità del lavoratore), PA e giustizia (supporto decisionale tracciabile), scuola e sport (formazione e inclusione).
Governance nazionale: ACN e AgID Autorità competenti; coordinamento presso la Presidenza del Consiglio; Strategia IA aggiornata ogni due anni e report annuale al Parlamento.
Sostegno all’innovazione: 1 miliardo di euro per startup e PMI in IA e tecnologie correlate.
Fin qui tutto quello che si legge nella legge ma…non è tutto perché il percorso legislativo nazionale inizia proprio dalla pubblicazione in Gazzetta ufficiale della legge. Dal momento della sua entrata in vigore (il 10 ottobre p.v.) il Governo avrà 12 e/o 24 mesi per adottare tutti i decreti, legislativi e ministeriali, da cui ha ricevuto delega dal Parlamento.
Il cuore della legge (materia di dati e algoritmi (Art. 16 commi 1-3) è tutto demandato al Governo che detiene le principali deleghe legislative: la disciplina organica relativa all’uso di dati/algoritmi/metodi per l’addestramento; le tutele (risarcitorie/inibitorie) e sanzioni; la competenza nelle relative controversie alle sezioni imprese per le controversie. È il cuore del provvedimento perché tocca il cuore della tecnologia nelle sue implicazioni di “compatibilità” con l’AI ACT europeo, di diritto amministrativo (art. 24), di diritto penale segnatamente di policy ad alto rischio. Alle deleghe legislative faranno necessariamente da compendio quelle regolamentari. Le autorità incaricate di regolare l’intelligenza artificiale non sono, in mancato rispetto dell’AI ACT europeo, indipendenti ma tutte affiliate al Governo e non sono stati previsti meccanismi di difesa dei diritti umani dagli errori dei sistemi di IA. L’AI Act prevede che gli Stati adottino un meccanismo di ricorso, alternativo al giudice, che consenta alle persone di ottenere chiarimenti su come è stata presa una decisione automatizzata mentre la legge nostrana in materia, non prevedendo tale strumento, esclude le implicazioni securitarie della tecnica normativa di uno Stato di diritto abdicando la tutela dei diritti umani in favore delle logiche del governo.