Intelligenza artificiale e pubblica amministrazione: sfide, rischi e prospettive. Intervista al Prof. Avv. Pietro Luigi Matta
L'intelligenza artificiale sta entrando con sempre maggiore incisività nei processi decisionali della pubblica amministrazione, sollevando interrogativi cruciali in tema di trasparenza, motivazione dei provvedimenti e tutela dei diritti dei cittadini. Dal Regolamento europeo sull'Intelligenza Artificiale alla giurisprudenza del Consiglio di Stato, il quadro normativo è in rapida evoluzione.
Ne abbiamo parlato con Pietro Luigi Matta, avvocato cassazionista iscritto all'Ordine degli Avvocati di Palermo, giornalista pubblicista iscritto all'Ordine dei Giornalisti di Sicilia, docente di Diritto Amministrativo presso la Scuola di Medicina dell'Università degli Studi di Palermo e docente di Governo Locale nel Master in Europrogettazione e Professioni Europee dell'Università degli Studi di Palermo. Già docente di Organizzazione Pubblica, di Diritto Regionale e Diritto degli Enti Locali nell'Università degli Studi del Molise, nonché di Diritto Pubblico Comparato e di Istituzioni di Diritto Pubblico nell'Università degli Studi di Catania, è docente presso la Scuola Nazionale dell'Amministrazione della Presidenza del Consiglio dei Ministri. È stato Direttore del Master Euromediterraneo in International Business e Public Policies del CERISDI, del Ministero degli Affari Esteri – Direzione Generale della Cooperazione Internazionale e della Regione Siciliana, unitamente alle Università degli Studi di Palermo, Catania, Messina ed Enna. È Vice Presidente della Libera Università della Politica fondata da P. Ennio Pintacuda.
Professore, l'utilizzo di algoritmi e sistemi di intelligenza artificiale nei procedimenti amministrativi sta diventando sempre più diffuso. Quali sono, a suo avviso, le principali sfide che questa trasformazione pone al principio di trasparenza e al diritto dei cittadini di comprendere le ragioni di una decisione pubblica?
Non sempre gli algoritmi sono facilmente interpretabili, nemmeno dagli esperti. Questo rende certamente difficile comprendere come una decisione sia stata presa. La tracciabilità delle decisioni è necessaria per garantire la ricostruzione del processo decisionale. I cittadini devono poter accedere alle informazioni su come gli algoritmi operano nel procedimento e le amministrazioni potrebbero dover fornire spiegazioni sulle decisioni prese da tali sistemi. La legge sul procedimento amministrativo impone obblighi di trasparenza, ma l'uso dell'intelligenza artificiale richiede ulteriori riflessioni su come applicare questi principi.
Il Consiglio di Stato, a partire dalla nota sentenza n. 8472/2019, ha elaborato una serie di principi sull'uso degli algoritmi nella pubblica amministrazione. Ritiene che il quadro giurisprudenziale attuale sia sufficiente a garantire un equilibrio tra efficienza amministrativa e tutela dei diritti del cittadino, oppure servirebbero interventi legislativi più organici?
Il Consiglio di Stato, con la sentenza n. 8472/2019, ha stabilito alcuni principi fondamentali per l'uso degli algoritmi nella pubblica amministrazione, come la trasparenza e la non esclusività della decisione algoritmica. Questi principi mirano a garantire un equilibrio tra efficienza amministrativa e tutela dei diritti dei cittadini. Tuttavia, il quadro giurisprudenziale attuale potrebbe non essere sufficiente a garantire questo equilibrio e, a tal proposito, potrebbe essere opportuno un intervento legislativo più organico per regolare l'uso degli algoritmi nella pubblica amministrazione. È necessario che gli algoritmi siano conoscibili e comprensibili per i cittadini e per le amministrazioni.
Il Regolamento europeo sull'Intelligenza Artificiale (AI Act) classifica come "ad alto rischio" diversi sistemi utilizzabili dalla pubblica amministrazione. Come cambierà concretamente il modo in cui le amministrazioni italiane potranno adottare e gestire strumenti di IA nei propri procedimenti?
Il Regolamento europeo sull'Intelligenza Artificiale (AI Act) introduce nuove regole per l'uso dei sistemi di IA nella pubblica amministrazione italiana. I sistemi ad alto rischio, come quelli utilizzati per la selezione del personale, la valutazione creditizia o la sorveglianza, dovranno rispettare requisiti stringenti: le amministrazioni dovranno effettuare valutazioni di conformità e sarà necessaria la supervisione umana per garantire che i sistemi di IA siano utilizzati in modo responsabile. Le amministrazioni dovranno essere trasparenti sull'uso dei sistemi di IA e fornire informazioni chiare agli utenti. Inoltre, le amministrazioni italiane dovranno produrre documentazione tecnica dettagliata sui sistemi di IA e garantirne la sicurezza.
Uno dei nodi più delicati riguarda la motivazione del provvedimento amministrativo: quando una decisione è assunta con il supporto di un sistema di IA, come si concilia l'obbligo di motivazione previsto dall'art. 3 della legge 241/1990 con l'opacità intrinseca di alcuni modelli algoritmici, i cosiddetti sistemi "black box"?
Il nodo della motivazione del provvedimento amministrativo è effettivamente uno dei punti più delicati. L'art. 3 della legge 241/1990 e successive modificazioni e integrazioni richiede che ogni provvedimento amministrativo sia motivato, indicando i presupposti di fatto e le ragioni giuridiche che lo hanno determinato. Quando una decisione è assunta con il supporto di un sistema di IA, specialmente se si tratta di un sistema "black box", la motivazione può diventare complessa. La giurisprudenza e le linee guida italiane ed europee hanno introdotto alcune figure sintomatiche: l'amministrazione deve essere in grado di spiegare come l'algoritmo ha contribuito alla decisione; inoltre, l'amministrazione può motivare il provvedimento facendo riferimento ai risultati dell'algoritmo, a condizione che questi siano conoscibili e verificabili. L'amministrazione deve documentare il processo decisionale, inclusi i dati utilizzati dall'algoritmo e le scelte effettuate. In pratica, le amministrazioni dovranno trovare un equilibrio tra l'uso dell'IA per supportare le decisioni e la necessità di motivare i provvedimenti in modo chiaro e comprensibile.
L'automazione delle decisioni amministrative potrebbe ridurre la discrezionalità del funzionario pubblico. Secondo lei, esiste il rischio che l'IA finisca per sostituire il giudizio umano anziché supportarlo, e quali garanzie procedimentali andrebbero previste per evitare una deresponsabilizzazione della pubblica amministrazione?
L'automazione delle decisioni amministrative può effettivamente ridurre la discrezionalità del funzionario pubblico, ma è fondamentale garantire che l'IA supporti il giudizio umano senza sostituirlo. Il rischio di deresponsabilizzazione esiste se non si prevedono adeguate garanzie procedimentali. Per evitare questo rischio, è importante prevedere la supervisione umana e assicurare che l'IA venga utilizzata come supporto alle decisioni, non come sostituto del giudizio umano. Si devono implementare meccanismi di controllo e revisione delle decisioni prese con l'ausilio dell'IA. Inoltre, è fondamentale che i funzionari pubblici siano formati sull'uso dell'intelligenza artificiale e sulle sue limitazioni, per garantire un utilizzo consapevole e responsabile di questi strumenti.
Guardando al futuro, come immagina il rapporto tra intelligenza artificiale generativa — si pensi ai modelli come ChatGPT — e l'attività amministrativa? Potrebbero questi strumenti essere impiegati, ad esempio, nella redazione di atti o nel supporto all'istruttoria, e quali limiti giuridici ed etici dovrebbero essere posti?
L'intelligenza artificiale generativa potrebbe rivoluzionare l'attività amministrativa, in particolare nella redazione di atti. Invero, l'IA potrebbe assistere nella stesura di documenti standardizzati, liberando in tal modo tempo per compiti più complessi. Inoltre, nella fase istruttoria potrebbe aiutare a raccogliere e analizzare dati, identificare documenti rilevanti o suggerire possibili soluzioni. Tuttavia, ci sono limiti giuridici ed etici da considerare: la responsabilità amministrativa, la trasparenza, la motivazione delle decisioni, l'imparzialità e il rispetto delle norme sulla protezione dei dati personali.