di Ignazio Catauro – L’intelligenza artificiale non è più un oggetto teorico o un tema da convegno, è diventata una presenza che attraversa il lavoro, la Pubblica Amministrazione, la scuola e l’università con la stessa naturalezza con cui, in altre epoche, entrarono l’elettricità o il computer, ma con un impatto più profondo perché non modifica soltanto gli strumenti bensì il modo stesso in cui pensiamo, decidiamo e organizziamo la vita collettiva. Nel mondo produttivo questa trasformazione è già evidente, poiché l’IA non si limita a velocizzare operazioni ripetitive ma riorganizza interi processi, introduce la previsione come componente ordinaria della produzione e crea un divario crescente tra chi innova e chi resta fermo. Le aziende che adottano sistemi di manutenzione predittiva riducono drasticamente i fermi macchina, quelle che integrano modelli di analisi avanzata anticipano la domanda e ottimizzano qualità e costi, mentre le nuove professioni che emergono non sono più nicchie per specialisti ma competenze diffuse che ogni settore richiede per dialogare con sistemi intelligenti e governarne gli effetti. La frattura non è più tra uomo e macchina, ma tra chi saprà usare questi strumenti e chi ne resterà escluso, e questa frattura si riflette immediatamente sul modo in cui lo Stato è chiamato a rispondere. Nella Pubblica Amministrazione l’IA sta mostrando quanto possa incidere sulla qualità dei servizi, perché i sistemi che analizzano grandi quantità di dati permettono di individuare frodi, accelerare controlli, smistare atti giudiziari e rispondere ai cittadini con maggiore coerenza. È un salto di qualità che potrebbe restituire credibilità allo Stato e ridurre tempi e arbitrarietà, ma che allo stesso tempo mette a nudo una fragilità strutturale, ossia la carenza di competenze interne. Senza personale formato, l’innovazione rischia di trasformarsi in dipendenza da fornitori esterni e in una perdita di controllo sui processi decisionali, e la modernizzazione finisce per essere subita anziché guidata. La PA si trova così in una posizione paradossale, perché dispone di strumenti che potrebbero migliorarla profondamente ma non sempre possiede le risorse umane per utilizzarli in modo consapevole, e questa tensione si riflette immediatamente sul sistema educativo, che è chiamato a formare le competenze necessarie per evitare che l’innovazione diventi un fattore di disuguaglianza. È nella scuola che questa trasformazione appare più delicata, perché l’IA entra in classe senza bussare e modifica il modo in cui gli studenti apprendono e gli insegnanti preparano le lezioni. Le piattaforme che adattano gli esercizi al ritmo di ciascuno studente mostrano che è possibile costruire percorsi personalizzati capaci di sostenere chi è in difficoltà e di stimolare chi procede più velocemente, ma questa promessa richiede una scuola in grado di governare gli strumenti e non di subirli. Gli strumenti per l’inclusione stanno diventando parte integrante della didattica, poiché la sintesi vocale, il riconoscimento vocale, la traduzione automatica e i sistemi che semplificano i testi permettono a studenti con disturbi specifici dell’apprendimento o a studenti non italofoni di partecipare con maggiore autonomia. È un progresso reale, che però impone formazione continua per i docenti e un quadro di regole che eviti l’uso improprio degli strumenti generativi. La scuola vive anche una tensione più profonda, perché l’IA mette in discussione il valore della valutazione tradizionale, infatti se unelaborato può essere prodotto da un sistema generativo, il compito dell’insegnante non è più verificare la correttezza di un testo ma comprendere se lo studente ha sviluppato capacità critiche, autonomia e consapevolezza. È un passaggio culturale che richiede tempo, risorse e una visione chiara del ruolo della scuola proprio in un contesto dove la produzione di contenuti può essere agevolmente automatizzata. Nell’università questa trasformazione è ancora più evidente, perché l’IA non è un supporto ma un elemento ormai strutturale della ricerca e della didattica. I laboratori di fisica, biologia, ingegneria e medicina utilizzano modelli avanzati per simulazioni, analisi genomiche, elaborazione di immagini e modellizzazione di fenomeni complessi, e la velocità con cui si producono risultati scientifici è aumentata insieme alla necessità di competenze capaci di interpretare, verificare e contestualizzare ciò che l’IA produce. Nella didattica stanno emergendo tutor intelligenti che rispondono alle domande degli studenti, generano esercizi personalizzati e spiegano passaggi matematici o di programmazione, strumenti che possono ridurre il divario tra studenti forti e studenti fragili ma che rischiano di creare una dipendenza da sistemi non sempre trasparenti. Le università sperimentano anche sistemi predittivi che analizzano i dati delle carriere per individuare chi rischia l’abbandono e di conseguenza proporre interventi mirati, un uso dell’IA che può migliorare l’efficacia del sistema ma che apre interrogativi sulla gestione dei dati, sulla privacy e sulla responsabilità delle decisioni. Naturalmente il nodo più delicato riguarda l’integrità accademica, perché l’IA generativa rende più difficile distinguere tra produzione originale e produzione assistita, e le università si trovano a elaborare regolamenti e codici etici mentre la velocità dell’innovazione supera la capacità delle istituzioni di definire regole stabili. Tutto questo conduce a una questione decisiva che attraversa lavoro, PA, scuola e università e che riguarda la capacità del Paese di orientare il cambiamento invece di inseguirlo. L’IA non è un fenomeno neutrale, perché modifica i rapporti di forza, crea nuove dipendenze e apre spazi di opportunità che non sono distribuiti in modo uniforme. Dunque, in conclusione, la sfida non è temere la tecnologia, ma evitare che diventi un fattore di disuguaglianza tra chi ha gli strumenti per usarla e chi ne subisce gli effetti. In gioco non c’è solo la competitività dell’Italia, ma la sua capacità di restare una comunità coesa, capace di decidere il proprio futuro senza lasciarlo nelle mani di pochi attori tecnologici.

