Attualità
Pubblica Amministrazione e intelligenze artificiali: una sfida attuale

Salute, fisco, giustizia, polizia, in Italia le applicazioni delle IA in ambito pubblico sono a macchia di leopardo ma toccano già oggi tutti i settori pubblici principali.
di Antonio Virgili – vicepresidente Lidu onlus
Il rapporto tra le attività della Pubblica Amministrazione e le intelligenze artificiali è una area di sfida complessa tra le necessità di garanzia e tutela dei cittadini e la espansione continua delle applicazioni informatiche, numerose delle quali già in uso e delle quali sarà impossibile fare a meno. Si stima in oltre 700 il numero delle applicazioni di elaborazione dei dati già in uso nella PA italiana, per alcune di esse sono già ampiamente in uso dei tipi di IA. Salute, fisco, giustizia, polizia, in Italia le applicazioni delle IA in ambito pubblico sono a macchia di leopardo ma toccano già oggi tutti i settori pubblici principali. Molte di queste riguardano la sorveglianza e la sicurezza.
Tra i tentativi pionieristici c’è quello di mettere l’IA con riconoscimento facciale negli stadi. Nel febbraio 2020, il Ministro per le Politiche giovanili, Spadafora, annunciò l’intenzione del Governo di utilizzare la tecnologia del riconoscimento facciale per combattere il fenomeno dilagante degli episodi di violenza e razzismo nelle manifestazioni sportive. Già nel 2019 si era ipotizzata l’adozione di un sistema combinato di videosorveglianza visiva e sonora tramite sistemi di riconoscimento facciale e specifici “radar passivi”, oggi in uso alle unità antiterrorismo, che consentono di captare suoni e rumori tramite microfoni direzionali.
Nonostante alcune perplessità, sembrerebbe che, ad oggi, siano in corso solo alcuni progetti pilota che applicano tali tecnologie, negli stadi di Napoli, Udine e Bergamo. Mentre è in uso da anni alla Polizia Scientifica italiana il SARI (acronimo di Sistema Automatico di Riconoscimento Immagini). Originariamente utilizzato per contrastare il terrorismo, il SARI è divenuto uno strumento utile anche per l’arresto di alcuni criminali, sebbene il suo uso non sia stato regolamentato compiutamente. Secondo dati riportati dalla stampa, il sistema nel 2018 aveva già 16 milioni di registrazioni e 10 milioni di foto con 9 milioni di profili. Tali sistemi di controllo, per le loro precise e condivisibili finalità, sono stati accolti anche dal Garante Privacy che nel 2016 ne autorizzò l’uso allo Stadio Olimpico di Roma, sebbene con delle riserve. Evidente che, alla luce del GDPR europeo del 2018, i dati dovrebbero essere trattati secondo i principi europei, rendendosi necessario svolgere una dettagliata valutazione dell’impatto di tali tecnologie e trattamenti sulla riservatezza dei cittadini.
Nel settore sanitario, l’IA è utilizzata al fine di predire l’insorgenza di specifiche patologie croniche e complicazioni post-operatorie, oltre che per personalizzare le cure dei pazienti anche sulla base di analisi di machine learning. In tale direzione, nel corso del 2019, è stato avviato a Vimercate (Lombardia) un esperimento all’interno del ramo locale dell’Azienda Socio-Sanitaria Territoriale (ASST), che utilizza soluzioni cloud a codice aperto (open source), sviluppate da Almaviva, per lo sviluppo di algoritmi finalizzati al perseguimento dei predetti scopi. Ciò consentirebbe di ridurre i costi e ottimizzare la logistica, per soluzioni dette di “medicina di precisione”. Occorre, anche in tale caso, precisare, che l’intelligenza artificiale non dovrà o potrà essere un sostituto dei medici, andando invece a rappresentare una forma di supporto alle decisioni degli stessi.
Anche nel sistema giudiziario italiano, negli ultimi anni, sono stati condotti alcuni esperimenti, al fine di sviluppare sistemi di “Predictive Jurisprudence” (“giurisprudenza predittiva”). Nel 2019 un primo esperimento è stato sviluppato dal LIDER Lab della Scuola Superiore Sant’Anna, a Pisa, in collaborazione con EMbeDS, KDD Lab e il Tribunale di Genova. Il sistema sviluppato dai ricercatori consente di avere accesso a tutte le sentenze emesse dal Tribunale stesso e di analizzarle tramite complesse procedure di machine learning. L’analisi condotta dall’IA consente poi, al giudice che ne fa uso, di identificare orientamenti, tendenze comuni e prassi della giurisprudenza in relazione ad ogni specifico caso oggetto di esame. Ciò permetterebbe, quindi, al giudice, di verificare con maggior precisione la coerenza della propria posizione con quella espressa da altri colleghi in casi analoghi. Alcuni anni fa anche la Corte di Appello e il Tribunale di Brescia hanno avviato un esperimento di “giustizia predittiva”, tramite un progetto che ha l’obiettivo di prevedere la lunghezza di una causa e i principi da adottare nel valutarla. Tale sistema, nelle migliori delle ipotesi, consentirebbe anche di stimare se un reclamo possa o meno essere approvato. Sistemi simili sono oggetto di sperimentazione non solo nelle aule di tribunale, ma anche nel settore privato, negli studi legali. La procedura potrebbe aiutare l’avvocato a comprendere in anticipo le probabilità di successo di una determinata causa.
In materia di tributi, sono invece due i sistemi utilizzati all’Agenzia delle Entrate che si basano su algoritmi omcplessi: gli “ISA (Indici Sintetici di Affidabilità)”, entrati in vigore nel 2019, consistono in una valutazione a punteggi dell’affidabilità fiscale del soggetto preso in esame, il punteggio è assegnato da un software; e l’”Evasometro anonimizzato”, uno strumento di analisi fiscale, attivo dal 2016, che può condurre verifiche incrociate sui database in uso all’Agenzia delle Entrate, oltre che su “fonti aperte” come articoli di giornale, siti e social media, al fine di identificare incongruenze nei consumi o nelle operazioni finanziarie svolte dal contribuente.
Le enormi potenzialità connesse al corretto utilizzo dell’IA sono state affermate a livello europeo, all’interno de “La strategia europea sui dati” e del “Libro bianco sull’intelligenza artificiale”; nei quali si delineano i principi generali della strategia digitale UE, con particolare riferimento proprio ai sistemi di IA (e, conseguentemente, di ADM, ossia, “Advanced Data Mining”, il metodo di estrazione e analisi dei dati raccolti). L’intera strategia europea, che si cerca di far propria anche a livello nazionale, si fonda su tre concetti fondamentali:
- I sistemi di intelligenza artificiale possono fungere solo da strumento e non da sostituto dell’uomo (“people first”, o “tecnologia al servizio delle persone”);
- La tecnologia dell’IA, in linea generale, non è buona o cattiva, ma lo diventa in base all’uso che ne fa l’uomo;
- Il futuro risiede nella “sovranità tecnologica”, ossia nel controllo e nella comprensione generalizzata della tecnologia, ad ogni livello (il cittadino, l’ente, l’impresa).
Dalla semplificazione delle procedure burocratiche all’ottimizzazione delle risorse, passando per l’implementazione di sistemi predittivi per la pianificazione urbana e la gestione delle emergenze, l’orizzonte che si dischiude prospetta un panorama di possibilità fino ad oggi inesplorate, delineando un percorso con grandi potenzialità trasformative. In questo contesto, l’IA può fungere da catalizzatore di innovazione e progresso all’interno della PA, per un’amministrazione pubblica più efficiente, trasparente e inclusiva.
Il dibattito sulle implicazioni etiche, sulla sicurezza dei dati e sull’equità dell’IA però non è ancora al livello che l’impatto complessivo delle trasformazioni richiederebbe. L’introduzione dell’IA nei processi amministrativi pubblici comporta una profonda rivisitazione del rapporto tra cittadini e istituzioni, con la sfida di raggiungere e consolidare il delicato equilibrio tra la promessa del miglioramento dei servizi e la garanzia della tutela dei diritti fondamentali. Da strumento di nicchia, l’IA si è rapidamente evoluta e continua ad evolversi a velocità sempre più incalzante. In particolare, la possibilità di elaborare grandi quantità di dati e fornire analisi predittive permetterebbe di prospettare una gestione sempre più strategica e lungimirante delle risorse pubbliche. Questo processo di espansione, tuttavia, implica problemi fondamentali relativi alla sicurezza dei dati, alla privacy degli utenti e all’etica dell’automazione dei processi decisionali, che devono essere orientati ad assicurare il pieno bilanciamento dell’innovazione tecnologica con i diritti individuali e i principi democratici. È quindi essenziale che i sistemi di IA siano governati da norme chiare e da principi di trasparenza che preservino la fiducia dei cittadini, attraverso una mappa normativa in grado di identificare e regolamentare i sistemi ad alto rischio – così definiti quando risultano capaci di incidere in modo sensibile sulla salute e sui diritti fondamentali delle persone fisiche – e di porre le basi per un loro utilizzo consapevole e responsabile. Occorre però vigilare costantemente anche sulle preoccupazioni legate, ad esempio, all’introduzione di bias (distorsioni o discriminazioni) negli algoritmi di intelligenza artificiale predittiva e generativa, assicurando che tutti i sistemi utilizzati rimangano equi e adottando un approccio equilibrato che consideri le implicazioni etiche e sociali e garantisca, di conseguenza, le adeguate strategie di tutela e salvaguardia dei diritti di tutti i soggetti coinvolti, nonché sempre una possibilità di intervento e controllo umano. Il punto-chiave è che ogni algoritmo utilizzato debba essere non solo efficace, ma anche giustificabile.
La PA deve quindi impegnarsi a garantire che ogni decisione presa attraverso sistemi di IA sia accompagnata da una spiegazione comprensibile e da una tracciabilità completa, sia per evitare di alienare i cittadini da processi decisionali percepiti come opachi o troppo complessi che per alimentare un circolo virtuoso che aumenti la trasparenza e la responsabilità delle istituzioni stesse. È fondamentale stabilire linee guida chiare e standard condivisi. Queste norme devono includere requisiti di documentazione, tracciabilità delle decisioni e possibilità di audit, con l’obiettivo di creare un sistema che assicuri trasparenza e sicurezza nell’utilizzo dell’IA nelle amministrazioni pubbliche. Le intelligenze artificiali hanno oramai il potenziale per trasformare non solo l’operatività ma anche il processo decisionale nelle pubbliche amministrazioni. Grazie all’analisi predittiva, si può fornire ai decisori elementi preziosi su potenziali risultati delle politiche e delle pratiche attuate, contribuendo a formulare strategie basate su dati anziché su semplici intuizioni. Tuttavia, è fondamentale che algoritmi e tecnologie siano impiegati in modo etico e che le decisioni finali rimangano sempre in mano umana, nell’ottica della responsabilità condivisa e del pieno consenso democratico.
Si parla correttamente di Intelligenze Artificiali, al plurale, perché ci sono almeno tre tipi principali di intelligenza artificiale: apprendimento automatico, intelligenza artificiale debole e intelligenza artificiale forte. L’apprendimento automatico (ML, Machine Learning) è una tecnica di intelligenza artificiale che si concentra sullo sviluppo di algoritmi in grado di apprendere automaticamente da dati esistenti e di fare previsioni su dati futuri. Gli algoritmi ML sono in grado di individuare automaticamente modelli nascosti nei dati e quindi utilizzarli per compiere azioni predittive. L’apprendimento automatico è in grado di eseguire in modo autonomo compiti come il riconoscimento delle immagini, la previsione dei prezzi delle azioni e la traduzione automatica. Si distingue in Supervisionato e Non Supervisionato: nel primo le etichette/categorizzazioni vengono fornite dagli esseri umani, nel secondo vengono create dall’algoritmo stesso. L’intelligenza artificiale debole, o ristretta, (AI) è un diverso approccio di intelligenza artificiale che si concentra sullo sviluppo di sistemi in grado di eseguire compiti specifici in modo autonomo.
I sistemi IA sono in grado di imitare le azioni e le strategie umane in un contesto limitato. Gli esempi di sistemi AI deboli includono la guida automatica dei veicoli, la programmazione dei robot e la creazione di giochi di simulazione. L’intelligenza artificiale forte (sigla inglese AGI – Artificial General Intelligence) è un ambito che si concentra sullo sviluppo di sistemi in grado di utilizzare l’intelligenza umana in modo completo. L’AGI è una forma di intelligenza artificiale che è in grado di eseguire qualsiasi compito che un essere umano può eseguire, come la risoluzione di problemi complessi, la comprensione del linguaggio naturale e la creazione di soluzioni creative. Secondo una diversa classificazione, le più diffuse intelligenze artificiali si possono differenziare in: sistemi esperti basati sui modelli, sistemi Ml (da machine learning) e sistemi generativi LLM (Large Language Models), che sono modelli progettati per comprendere e generare testo in linguaggio naturale.
In sintesi, queste tecnologie sono diventate imprescindibili in moltissime attività, e richiedono di essere conosciute, regolamentate, governate, definite nelle applicazioni. Tra i problemi che si pongono c’è quello della realizzazione dei software di IA, che sono nella maggior parte prodotti, gestiti e controllati da società private che sfuggono ad una regolamentazione totale e “pubblica”. Ciò rende meno trasparente la gestione dei sistemi stessi, degli algoritmi utilizzati e dei possibili errori. Parlare di “autoregolamentazione” da parte dei produttori di software risulta fuorviante e rischioso non solo per i singoli cittadini ma per le stesse istituzioni. Inoltre, la tendenza a prendere decisioni su basi prevalentemente statistiche non è corretta in assenza di chiare premesse e di una metodologia guida non solo probabilistica. Non ultimo, in caso di errore, malfunzionamento o danno, chi sarà il responsabile? Il gestore finale, chi ha progettato sistema e algoritmi o la società che ne gestisce la produzione e manutenzione? Oltretutto, siccomela maggior parte dei produttori e gestori di grossi sistemi informatici di IA sono società private, anche la tutela degli stessi dati risulta meno agevole. I possibili rischi dietro decisioni delle IA anonime, asettiche e apparentemente corrette, non sono stati ancora ben valutati, così come la tutela degli stessi dati, pur nel gran parlare di “privacy”.