Connect with us

Attualità

Gli orientamenti della UE in materia di intelligenza artificiale

Published

on

Tempo di lettura: 6 minuti

Il Parlamento e il Consiglio dell’UE hanno definito una piattaforma di accordo politico per l’approvazione dell’”AI Act”, un regolamento di riferimento, indirizzato a tutti i Paesi aderenti all’Unione, per lo sviluppo e l’uso di sistemi di intelligenza artificiale.

di Alexander Virgili

Nella prima metà di dicembre il Parlamento e il Consiglio dell’UE hanno definito una piattaforma di accordo politico per l’approvazione dell’”AI Act”, un regolamento di riferimento, indirizzato a tutti i Paesi aderenti all’Unione, per lo sviluppo e l’uso di sistemi di intelligenza artificiale. Gli osservatori lo hanno definito un risultato storico poiché è la prima regolamentazione del mondo che affronti sviluppo ed uso dell’IA, definendo gli usi consentiti e quelli proibiti, la tutela della riservatezza e il coordinamento con altre norme. In un primo momento Consiglio Europeo e Parlamento erano su posizioni distanti, essendo quest’ultimo favorevole a regole più restrittive e di tutela, mentre il Consiglio chiedeva maggiori margini per garantire ai Governi di intervenire sui temi della sicurezza, dello sviluppo industriale e dell’economia in generale. Dopo l’accordo ci sarà una stesura definitiva e la successiva approvazione del Parlamento e del Consiglio. L’AI Act cerca sostanzialmente di garantire, anche attraverso l’uso di tale tecnologia, la protezione dei diritti fondamentali, della democrazia, dello Stato di diritto e la sostenibilità ambientale. Il documento non affronta solo in modo generale e di principio questi aspetti ma affronta alcuni punti critici, quale quello della identificazione biometrica (RBI). La lista dei divieti include:

  • i sistemi di categorizzazione biometrica che utilizzano dati sensibili come le convinzioni politiche, religiose e la razza;
  • la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale;
  • il riconoscimento delle emozioni sul posto di lavoro e nelle scuole
  • il social scoring e intelligenza artificiale utilizzata per manipolare o sfruttare le vulnerabilità degli utenti.

Si è concordato di concedere il permesso di uso della RBI alle Forze dell’Ordine ma prevedendo una serie di salvaguardie e ristrette eccezioni per il suo utilizzo, previa autorizzazione giudiziaria e solo per elenchi di reati rigorosamente definiti. In una nota il Parlamento ha spiegato che l’RBI “post-remoto” verrebbe utilizzato solo per:

  • la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave come terrorismo, traffico di esseri umani, omicidio, stupro;
  • la ricerca di vittime di rapimento, traffico, sfruttamento sessuale;
  • la prevenzione di una minaccia terroristica specifica e attuale.

Tali limitazioni, che tuttavia potrebbero prestarsi a potenziali abusi con una non rigorosa definizione, ad esempio, di “prevenzione di una minaccia terroristica”, pongono un primo argine alla raccolta ed utilizzo di dati, sebbene restino delle criticità.  L’accordo poi prevede una serie di obblighi per i sistemi ad alto rischio, tra cui una valutazione dell’impatto sui diritti fondamentali. In questa categoria saranno inseriti anche i sistemi di IA usati per influenzare l’esito delle elezioni e il comportamento degli elettori.  Per quanto riguarda l’intelligenza artificiale detta “generativa” – ossia l’utilizzo dell’IA per la creazione di nuovi contenuti, come testo, immagini, musica, audio e video – il compromesso prevede un “approccio a due velocità”: saranno imposte regole a tutti per garantire la qualità dei dati utilizzati nello sviluppo degli algoritmi e per verificare che non violino il copyright; mentre gli sviluppatori dovranno garantire che i contenuti prodotti siano identificati chiaramente come “artificiali”. In tutto ciò, oltre a prevedere sanzioni per chi viola la legge, obblighi e divieti per le aziende, l’AI Act tutela i diritti dei cittadini europei, non solo il diritto alla riservatezza ma prevede che i cittadini abbiano il diritto a presentare reclami sui sistemi dell’IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.  L’AI Act prevede delle misure a sostegno dell’innovazione e un regime di sanzioni, con multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.   Come parte della sua strategia di digitalizzazione digitale, l’UE ha, opportunamente, inteso regolamentare l’intelligenza artificiale al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia.  L’IA può portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile.  Nell’aprile 2021, la Commissione aveva proposto il primo quadro normativo dell’UE sull’IA. Proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti, per cui i diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Per il Parlamento europeo, la priorità era infatti assicurarsi che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.  Le nuove regole stabiliscono dunque obblighi per fornitori e utenti a seconda del livello di rischio dell’IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.   Alcuni sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.  Questi comprendono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
  • classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:

  • identificazione e categorizzazione biometrica di persone naturali
  • gestione e funzionamento di infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione, gestione dei lavoratori e accesso all’autoimpiego
  • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi
  • forze dell’ordine
  • gestione delle migrazioni, asilo e controllo delle frontiere
  • assistenza nell’interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita. I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).  Esiste poi l’importante problema della sicurezza, infatti la crescente interconnessione tra la sfera digitale e quella fisica ha determinato il sorgere di nuovi pericoli. Di conseguenza, la sicurezza informatica ha acquisito un’importanza trasversale che spazia da aree come la sicurezza dei consumatori, a quella del funzionamento degli ospedali, arrivando fino alle forniture idriche ed elettriche.  Per rafforzare la protezione dei cittadini e delle imprese dalle minacce informatiche, nel novembre 2022 il Parlamento aveva approvato norme che rafforzano la ciber-sicurezza dell’UE in settori chiave, precedentemente, nel 2021, il Parlamento aveva adottato anche norme per un nuovo centro europeo per la ciber-sicurezza e per prevenire la diffusione di contenuti terroristici online.  Ѐ stato osservato che in realtà il provvedimento non è ancora definitivo e che nel corso delle messe a punto tecniche altre variazioni saranno verosimilmente apportate, mentre piuttosto risulta uno strumento utile per orientare lo sviluppo interno della ricerca e delle applicazioni nel settore. Ciò anche quale possibile difesa dalla concorrenza degli altri due poli di ricerca avanzata, quello statunitense e l’asiatico.  Infatti, si parla anche di tutela dei posti di lavoro, della competitività dei prodotti europei e della necessaria presenza nel definire i nuovi standard.  Perplessità hanno suscitato anche le definizioni di livelli di rischio, che sono in parte alquanto approssimative e non del tutto rispondenti ai criteri abituali di definizione di rischio e pericolo. L’importanza della IA e delle sue ricadute sulla vita sociale, sull’economia e sulla sicurezza sono ben note ed ampie, è quindi opportuno che l’UE si muova per garantire una propria presenza in questo settore altamente strategico, favorendo le infrastrutture, gli investimenti e lo scambio di dati. Per una questione di scala è prioritario che i Paesi europei si muovano in sinergia coordinandosi tra loro per bilanciare i colossi mondiali del settore. Non ultimo, le recenti crisi internazionali hanno mostrato la vulnerabilità nel dipendere troppo da forniture esterne, pertanto con l’European Chips Act, l’UE ha mirato ad aumentare la produzione di semiconduttori in Europa. La produzione di microchip si basa su catene di approvvigionamento complesse e interdipendenti che si estendono in tutto il mondo. Per aumentare l’indipendenza dell’UE, garantire la futura competitività e mantenere la leadership tecnologica, è necessario rafforzare le capacità dell’UE nella produzione di semiconduttori. In base alla normativa proposta, la quota dell’UE nella capacità di produzione globale dovrebbe aumentare da meno del 10% al 20%. Un modo saggio di procedere a tutela degli interessi europei.

Print Friendly, PDF & Email