Social Network

Tecnologia

L’uso dell’intelligenza artificiale nella Pubblica Amministrazione: come bilanciare produttività e tutela dei diritti

Pubblicato

-

Tempo di lettura: 3 minuti

L’ingresso dell’intelligenza artificiale nella Pubblica Amministrazione non è solo un aggiornamento tecnologico: è l’inizio di una vera rivoluzione.

di Francesca Fontana

L’ingresso dell’intelligenza artificiale nella Pubblica Amministrazione non è solo un aggiornamento tecnologico: è l’inizio di una vera rivoluzione. Una svolta che cambia il modo in cui lo Stato decide, organizza e risponde ai cittadini. Ma attenzione: l’innovazione corre veloce, e con essa cresce la necessità di garantire un equilibrio solido tra efficienza digitale e tutela dei diritti fondamentali.

In questo scenario prende forma un impianto normativo tra i più avanzati in Europa. Un sistema che nasce dall’intreccio tra il nuovo Regolamento europeo sull’intelligenza artificiale – il cosiddetto “AI Act” – le disposizioni italiane, in particolare l’articolo 30 del Codice dei contratti pubblici, e la Legge 23 settembre 2025, n. 132. A completare il quadro, una giurisprudenza sempre più incisiva, sia nazionale che sovranazionale, che sta tracciando i confini di quella che viene definita “amministrazione algoritmica”.

Un equilibrio delicato: da un lato la spinta verso una Pubblica Amministrazione più moderna, rapida e predittiva; dall’altro la necessità di trasparenza, controllo umano e rispetto delle garanzie costituzionali. È su questo terreno che si gioca la sfida del futuro digitale dello Stato.

L’Italia gioca d’anticipo e si prende la scena europea sull’intelligenza artificiale: tra i primi Paesi dell’Unione a muoversi con una disciplina completa, ha scelto di dotarsi di una legge organica che mette ordine e fissa regole chiare.

Con la Legge n. 132 del 2025, il nostro Paese definisce i principi guida per l’utilizzo dell’IA nella Pubblica Amministrazione. Il messaggio è netto: l’intelligenza artificiale può diventare un alleato prezioso per garantire efficienza e buon andamento, ma non può sostituire l’essere umano. Deve essere conoscibile, tracciabile e sempre funzionale al decisore pubblico, che mantiene l’ultima parola.

Prima ancora delle leggi, a fare da apripista è stata la giurisprudenza amministrativa. A segnare il punto di svolta è la storica sentenza n. 2270 dell’8 aprile 2019 del Consiglio di Stato: una decisione che ha fatto scuola. In quell’occasione i giudici hanno stabilito un principio destinato a pesare nel tempo: se il funzionamento dell’algoritmo non è comprensibile, l’intera procedura è viziata e deve essere annullata. Un passaggio chiave, che qualifica l’algoritmo come un vero e proprio “atto amministrativo informatico”: uno strumento costruito dall’uomo e applicato dalla macchina.

Pochi mesi dopo, con le sentenze nn. 8472, 8473 e 8474 del 2019, lo stesso Consiglio di Stato amplia l’orizzonte, ammettendo l’uso degli algoritmi anche nelle attività discrezionali della Pubblica Amministrazione. E più recentemente, con la sentenza n. 4857 del 4 giugno 2025, arriva un’ulteriore precisazione: da un lato la decisione amministrativa algoritmica, in cui l’algoritmo incide direttamente sull’esito; dall’altro l’algoritmo di mero supporto, dove la scelta resta saldamente nelle mani dell’essere umano, nel rispetto della cosiddetta “riserva di umanità”.

Ma non ci sono solo le sentenze. Sul piano operativo entra in campo l’Agenzia per l’Italia Digitale, che con la Determinazione n. 17 del 17 febbraio 2025 ha avviato la consultazione pubblica delle Linee Guida per l’adozione dell’intelligenza artificiale nella Pubblica Amministrazione.

Venti principi, organizzati in cinque aree strategiche: conformità e governance, etica e inclusione, qualità e affidabilità, innovazione e sostenibilità, formazione e organizzazione. L’obiettivo è chiaro: accompagnare le amministrazioni in un percorso strutturato, capace di coniugare innovazione e responsabilità.

Le Linee Guida si inseriscono nel solco della Strategia Italiana per l’Intelligenza Artificiale 2024-2026 e puntano a rafforzare trasparenza e fiducia nei confronti dei cittadini. Perché la sfida non è soltanto tecnologica, ma culturale.

Le regole ci sono, ma la sfida è complessa. Il primo nodo riguarda l’equilibrio tra efficienza e diritti: un algoritmo può velocizzare le decisioni, ma se si basa su dati incompleti rischia di creare nuove ingiustizie.

C’è poi il tema della trasparenza. I cittadini devono poter capire come vengono prese le decisioni pubbliche, ma spesso gli algoritmi sono sviluppati da aziende private e protetti da segreto industriale. Trovare un punto di incontro sarà decisivo.

Infine, la responsabilità. Quando la Pubblica Amministrazione acquista sistemi di intelligenza artificiale da fornitori esterni, deve garantire sicurezza informatica, protezione dei dati e pieno controllo pubblico. L’innovazione non può diventare una delega senza regole.

La sfida è chiara: fare dell’intelligenza artificiale uno strumento utile per migliorare i servizi, senza rinunciare a legalità, trasparenza e controllo umano.

Advertisement