
Dal 10 ottobre 2025 l’Italia entra ufficialmente nell’era dell’intelligenza artificiale regolata per legge. Con la Legge 132/2025, il Parlamento prova a scrivere un nuovo patto tra uomo, macchina e Stato. Una norma ambiziosa, che si propone di incanalare l’IA nei binari dell’etica, della trasparenza e della responsabilità. Ma dietro le parole solenni e i principi generali si nasconde una sfida tutta da giocare: quella dell’attuazione concreta. Il cuore del provvedimento è chiaro: la decisione resta umana. Nessun algoritmo potrà firmare un atto amministrativo, decidere una sentenza, diagnosticare una malattia o sostituire la responsabilità intellettuale di un professionista. L’IA è strumento, non soggetto; supporto, non giudice. Ma mentre il principio è nobile, la pratica si preannuncia complessa. Per la pubblica amministrazione, la legge impone una rivoluzione silenziosa. Gli algoritmi potranno assistere i funzionari, ma non sostituirli. Ogni decisione “assistita” dovrà essere accompagnata da una nota di trasparenza che spieghi, con linguaggio comprensibile, come opera il sistema. Niente automatismi ciechi, insomma. Tuttavia, le amministrazioni dovranno gestire audit periodici, test di robustezza e controlli di sicurezza senza fondi aggiuntivi. Innovare “a costo zero” rischia di restare uno slogan. Sul fronte dei liberi professionisti, la legge segna un confine netto: architetti, avvocati, ingegneri potranno usare l’IA solo per attività strumentali. Il cuore della prestazione — l’interpretazione, la decisione, la responsabilità — resta umano. Ogni cliente dovrà essere informato sull’uso dell’IA, con clausole chiare nei contratti. È una tutela, ma anche un onere: implica nuove competenze, assicurazioni aggiornate e formazione continua. Una bozza di clausola potrebbe suonare così: “Il professionista dichiara che, per lo svolgimento dell’incarico, potrà avvalersi di sistemi di intelligenza artificiale come strumenti di supporto. Il cliente è informato che l’IA non sostituisce la prestazione professionale né la responsabilità del professionista, che verificherà, integrerà e convaliderà i risultati generati, mantenendo in ogni caso il controllo tecnico e decisionale. Il cliente si dichiara consapevole dei possibili margini di incertezza connessi all’uso dell’IA e consente l’uso dei dati e delle informazioni necessari al funzionamento dei sistemi, nel rispetto della normativa vigente in materia di IA. ”Nel frattempo, la legge istituisce un Comitato nazionale per l’IA, affida poteri di vigilanza all’AgID e all’Agenzia per la Cyber-sicurezza, e prevede aggravanti penali per l’uso illecito della tecnologia. Ma tutto — responsabilità, sanzioni, prove, criteri di imputazione — è rimandato ai decreti attuativi, da emanare entro un anno. È qui che si giocherà la vera partita. C’è chi teme che la “delega” diventi un buco nero normativo, dove il potere esecutivo possa piegare la materia alle proprie esigenze tecniche o politiche. C’è chi, invece, intravede nella legge una cornice costituzionale moderna, in cui l’IA è posta al servizio dell’uomo e non viceversa. In ogni caso, una certezza emerge: il rapporto tra tecnologia e diritto non sarà più lo stesso. La legge 132/2025 è l’alba di una nuova cittadinanza digitale, dove la macchina deve rendere conto all’uomo — e non il contrario. Ma come ogni alba, porta con sé luce e ombre. Il rischio non è l’IA che decide, ma l’uomo che smette di capire come decide.
di Giuseppe Di Giacomo


