825 views 5 mins 0 comments

Dal 10 ottobre, decide l’uomo: la legge sull’IA ridisegna il potere di funzionari e professionisti.

In ATTUALITA', INSERTI ATTUALITA', OPINIONE
Ottobre 09, 2025
Una norma ambiziosa, che si propone di incanalare l’IA nei binari dell’etica, della trasparenza e della responsabilità.

Dal 10 ottobre 2025 l’Italia entra ufficialmente nell’era dell’intelligenza artificiale regolata per legge. Con la Legge 132/2025, il Parlamento prova a scrivere un nuovo patto tra uomo, macchina e Stato. Una norma ambiziosa, che si propone di incanalare l’IA nei binari dell’etica, della trasparenza e della responsabilità. Ma dietro le parole solenni e i principi generali si nasconde una sfida tutta da giocare: quella dell’attuazione concreta. Il cuore del provvedimento è chiaro:   la   decisione   resta   umana.   Nessun   algoritmo   potrà   firmare   un   atto   amministrativo,   decidere   una   sentenza, diagnosticare   una   malattia   o   sostituire   la   responsabilità   intellettuale   di   un   professionista.   L’IA   è   strumento,   non soggetto; supporto, non giudice. Ma mentre il principio è nobile, la pratica si preannuncia complessa. Per la pubblica amministrazione,   la   legge   impone   una   rivoluzione   silenziosa.   Gli   algoritmi   potranno   assistere   i funzionari, ma non sostituirli. Ogni decisione “assistita” dovrà essere accompagnata  da una nota di trasparenza  che spieghi,   con   linguaggio   comprensibile,   come   opera   il   sistema.   Niente   automatismi   ciechi,   insomma.   Tuttavia,   le amministrazioni   dovranno   gestire   audit   periodici,   test   di   robustezza   e   controlli   di   sicurezza   senza   fondi  aggiuntivi.  Innovare “a costo zero” rischia di restare uno slogan.  Sul fronte dei liberi professionisti, la legge segna un confine netto: architetti, avvocati, ingegneri potranno usare l’IA solo   per   attività   strumentali.   Il   cuore   della   prestazione   —   l’interpretazione,   la   decisione,   la   responsabilità   —   resta umano. Ogni cliente dovrà essere informato sull’uso dell’IA, con clausole chiare nei contratti. È una tutela, ma anche un onere:   implica   nuove   competenze,   assicurazioni   aggiornate   e   formazione   continua. Una   bozza   di  clausola   potrebbe suonare così: “Il professionista dichiara che, per lo svolgimento dell’incarico, potrà avvalersi di sistemi di intelligenza artificiale come strumenti di supporto. Il cliente è informato che l’IA non sostituisce la prestazione professionale né la responsabilità del professionista, che verificherà, integrerà e convaliderà i risultati generati, mantenendo in ogni caso il controllo tecnico e decisionale. Il cliente si dichiara consapevole dei possibili margini di incertezza connessi all’uso dell’IA e consente l’uso dei dati e delle informazioni necessari al funzionamento dei sistemi, nel rispetto della normativa vigente in materia di IA.  ”Nel frattempo, la legge istituisce un Comitato nazionale per l’IA, affida poteri di vigilanza all’AgID e all’Agenzia per la Cyber-sicurezza, e prevede aggravanti penali per l’uso illecito della tecnologia. Ma tutto — responsabilità, sanzioni, prove, criteri di imputazione — è rimandato ai decreti attuativi, da emanare entro un anno. È qui che si giocherà la vera partita. C’è chi teme che la “delega” diventi un buco nero normativo, dove il potere esecutivo possa piegare la materia alle proprie esigenze tecniche o politiche. C’è chi, invece, intravede nella legge una cornice costituzionale moderna, in cui l’IA è posta al servizio dell’uomo e non viceversa. In ogni caso, una certezza emerge: il rapporto tra tecnologia e diritto non sarà più lo stesso. La legge 132/2025 è l’alba di una nuova cittadinanza digitale, dove la macchina deve rendere conto all’uomo — e non il contrario. Ma come ogni alba, porta con sé luce e ombre. Il rischio non è l’IA che decide, ma l’uomo che smette di capire come decide.

di Giuseppe Di Giacomo