Intelligenza artificiale e diritto: «Serve discernimento, non chiusura». Intervista all'avvocato Ferrara

L'avvocato Ferrara, giurista esperto di diritto amministrativo e delle nuove tecnologie, analizza le sfide poste dall'intelligenza artificiale alle istituzioni pubbliche italiane ed europee*. Tra tutela dei diritti fondamentali, trasparenza amministrativa e responsabilità giuridica, il quadro che emerge è quello di un ordinamento chiamato a ripensarsi senza tradire i propri principi fondanti. Un confronto a tutto campo su normazione, giustizia predittiva, privacy e cultura digitale nella pubblica amministrazione.

(* le opinioni espresse sono a titolo personale)

Avvocato Ferrara, le istituzioni italiane ed europee stanno cercando di regolamentare l'intelligenza artificiale con strumenti come l'AI Act. Ritiene che l'attuale quadro normativo sia sufficiente a governare una tecnologia che evolve così rapidamente, o il diritto rischia di arrivare sempre in ritardo?

L'intelligenza artificiale rappresenta per gli ordinamenti giuridici una sfida che impone di dosare, abilmente, tre componenti: capacità di gestire l'innovazione, prudenza, attualizzazione dei principi fondamentali del diritto a tutela della persona. Sinceramente, e la mia non è sfiducia nei legislatori, non so se in atto il nostro quadro normativo sia in grado di gestire questo cambiamento. Il problema è di carattere sistemico: un approccio di tipo codicistico che tende a normare in modo preventivo ogni possibile fattispecie potrebbe rivelarsi non adeguatamente idoneo a regolamentare l'impatto che l'intelligenza artificiale avrà nella vita dei nostri Paesi e dell'Europa. Inoltre ragionare in termini di competenze nazionali mi sembra anacronistico dinanzi a un fenomeno difficilmente confinabile entro i limiti nazionali. Oggi il mondo del diritto è posto dinanzi a una sfida che definirei rivitalizzante; ai giuristi, nei vari ambiti in cui operano, è posto un compito importante: quello della gestione dell'impatto dell'innovazione che l'intelligenza artificiale pone e porrà. Per poter essere all'altezza di questo compito occorre sapere leggere il nuovo contesto e adattare i principi fondamentali della civiltà giuridica, consapevoli del ruolo che il diritto ha nella valorizzazione e nella difesa della persona umana.

L'uso di sistemi di IA nella pubblica amministrazione, ad esempio per velocizzare pratiche burocratiche o supportare decisioni amministrative, solleva interrogativi sul principio di trasparenza e sul diritto del cittadino a comprendere come vengono prese le decisioni che lo riguardano. Come si concilia l'efficienza algoritmica con le garanzie democratiche?

Le Pubbliche Amministrazioni devono prendere coscienza che il mondo è cambiato e, dunque, il loro modo di operare è cambiato. Essere al servizio della comunità e delle persone significa affrontare il cambiamento. È un'occasione imperdibile per le Pubbliche Amministrazioni, che possono scrostarsi da alcune prassi e lentezze che non sono funzionali alla ponderazione degli interessi ma costituiscono unicamente sacche di inefficienza. È chiaro che l'Amministrazione pubblica non può sacrificare sull'altare dell'efficienza le garanzie democratiche, ma probabilmente è un tema che nemmeno – in linea teorica – dovrebbe porsi. Chiarisco il mio pensiero: se utilizziamo l'intelligenza artificiale per nascondere il cattivo uso del potere amministrativo allora siamo fuori strada e l'algoritmo diventa un alibi. Sul punto le prime e recenti pronunce del giudice amministrativo utilizzano un concetto chiaro: "la riserva di umanità". Se i procedimenti e i provvedimenti amministrativi difetteranno del controllo successivo dell'essere umano saranno illegittimi. L'algoritmo non può e non deve essere un paravento dietro il quale nascondere il cattivo uso del potere amministrativo. L'Amministrazione pubblica è e deve rimanere al servizio della persona.

Nel settore della giustizia si parla sempre più spesso di strumenti predittivi e di supporto decisionale basati sull'IA. Secondo lei, esiste il rischio che l'automazione di certi processi possa compromettere l'indipendenza del giudice e il principio del libero convincimento?

Il rischio esiste e la posta in gioco è alta, occorre esserne consapevoli, tuttavia consapevolezza non deve essere sinonimo di chiusura verso l'innovazione. Esiste un dato inconfutabile: l'ampio arretrato. I tempi della risposta della giustizia sono anch'essi nocivi al sistema. L'intelligenza artificiale può essere un ausilio per i magistrati, una sorta di "assistente digitale". L'indipendenza e il libero convincimento sono a rischio solo se non si esercita il discernimento umano nella decisione. Se sconfiniamo in un eccesso di delega nell'algoritmo allora è la sconfitta, se lo sappiamo usare allora è la svolta. Chi giudica deve responsabilmente usare gli strumenti e preoccuparsi delle conseguenze della decisione. Ogni essere umano deve rispondere delle conseguenze delle sue azioni sulla vita di un altro essere umano. È un principio universale di civiltà.

Il tema della responsabilità giuridica è centrale: quando un sistema di intelligenza artificiale adottato da un'istituzione pubblica produce un danno o una decisione errata, chi ne risponde? L'ente che lo ha adottato, chi lo ha sviluppato, o dobbiamo ripensare interamente le categorie tradizionali di responsabilità?

Quello della responsabilità è l'architrave del sistema delle relazioni ed è il tema centrale. Le nostre categorie giuridiche, frutto di una tradizione millenaria, ci consentono di gestire questo cambiamento. L'art. 28 della nostra Costituzione è la migliore garanzia che possiamo immaginare. Gli enti pubblici rispondono delle loro attività. Il concetto di immedesimazione organica tra Amministrazioni e funzionari è una garanzia. Quello che mi preoccupa, invece, è se tutti sapranno usare responsabilmente l'intelligenza artificiale nelle Amministrazioni. La responsabilità amministrativa è una garanzia per il cittadino, ma quando deve essere attivata è comunque un fallimento per il sistema.

La raccolta massiva di dati personali da parte delle istituzioni per alimentare sistemi di IA pone un evidente conflitto con il diritto alla privacy. Come si può, dal punto di vista legale, trovare un equilibrio tra l'interesse pubblico all'innovazione e la tutela dei diritti fondamentali dei cittadini?

Quello del diritto alla privacy è uno dei profili che ritengo più preoccupanti e più delicati, per vari motivi. Ritengo che l'esperienza maturata sul tema a livello giurisprudenziale e di provvedimenti normativi e amministrativi degli organi deputati alla tutela dell'autodeterminazione delle informazioni sulla propria vita – la cosiddetta privacy – mi inducano a sperare. Un possibile espediente potrebbe essere quello di anonimizzare i dati quando si usa l'intelligenza artificiale in un procedimento amministrativo. Quello che, invece, temo possa sfuggire di mano è la raccolta massiva dei dati, che sta consegnando un'enorme quantità di dati statistici a soggetti che non conosciamo. Mi sembra di intravedere all'orizzonte uno squilibrio di informazioni statistiche tra gli Stati e i colossi dell'imprenditoria; questo mi preoccupa perché porterà a un indebolimento della funzione pubblica.

Guardando al futuro, ritiene che le istituzioni italiane abbiano le competenze e la cultura digitale necessarie per governare consapevolmente l'adozione dell'IA, o c'è il rischio di una delega eccessiva al settore privato e alle grandi piattaforme tecnologiche?

Formazione, questa è la parola chiave per le Pubbliche Amministrazioni nell'immediato. Il dato anagrafico e quello delle competenze culturali di chi compone oggi gli uffici rende urgente dedicarsi alla formazione sulle competenze digitali, diversamente dovremo esternalizzare a soggetti terzi. Inoltre acquisire nuove competenze come quelle digitali porterà a dei vantaggi in termini di capacità di ripensare, in chiave attuale, i processi lavorativi per una PA al servizio della società.