Attualità
Esiste un altro mondo parallelo: l’intelligenza artificiale
“Non si starà forse affidando eccessivamente all’IA il pensiero umano?”. Cosa succederebbe se l’IA si rendesse autonoma anche solo in parte?
di Angela Celesti
Con la promessa di cambiare il mondo l’IA è già pronta a farlo, anzi lo fa da tempo. Infatti tra annunci, titoloni e Chat GPT di basso profilo, si va affermando in molti settori della società civile seducendoci con l’abilità di semplificare tutto, sollevandoci da letture lunghissime e da elaborazioni troppo complesse per le nostre ormai deboli sinapsi. Una realtà che in paesi come gli Stati Uniti, statistiche alla mano, è ben accetta alla maggior parte della società che reputa utili i sistemi IA. Nulla da obiettare – è il progresso, diamine! – ma la domanda è: “Non si starà forse affidando eccessivamente all’IA il pensiero umano?”. Cosa succederebbe se l’IA si rendesse autonoma anche solo in parte?
Ma torniamo al concetto Intelligenza Artificiale e cioè una branca dell’informatica che progetta software capaci e intelligenti che forniscono “prestazioni”, sostituendo di fatto l’esclusività dell’intelligenza umana; algoritmi che in base agli input sensoriali, di cui sono dotati, e una infinità incalcolabile di dati forniti (Big Data) riescono a decodificare il linguaggio scritto e verbale, elaborare calcoli impressionanti in millesimi di secondo e a sviluppare abilità visive e uditive che l’uomo non possiede, con conclusioni servite poi su un piatto d’argento! Pare che le prime applicazioni dell’IA risalgono agli anni ‘50 del secolo scorso. in un periodo di pieno fermento scientifico su calcolatori da utilizzare per i sistemi intelligenti. Il lavoro di Alan Turing (1936) aveva posto le basi dell’Intelligenza Artificiale come la vediamo oggi, ma la cosa impressionante sono le conclusioni sul suo test: “Una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona”. Una teoria che è diventata la madre della logica matematica, delle reti neurali e, nell’ultimo decennio, utilizzata nell’ambito del Deep Learning e del Machine Learning molto più evoluto che permette ai sistemi informatici di apprendere in maniera autonoma, senza essere esplicitamente programmati, la cosiddetta IA generativa di cui ChatGPT è un esempio.

I vantaggi sono già forti nell’industria digitale, nelle applicazioni business-to-business, nelle società di nuove generazioni di prodotti e servizi, nell’agricoltura, nella moda, nel turismo, senza dimenticare l’ambito sanitario e la sicurezza dei cittadini (robot che svolgono lavori pericolosi per l’uomo). Un potenziale che non va sottoutilizzato se noi, esseri umani, consideriamo i vantaggi dell’Intelligenza artificiale in una infinità di ambiti come la medicina generale, la diagnostica, si pensi con quanta precisione gli algoritmi scovano un carcinoma cutaneo o un melanoma o forniscono un triage automatico su radiografie toraciche, classificandole per categorie: urgenti, non urgenti, normali, con un valore predittivo che sulla specificità supera il 90 per cento. Così nell’ ambito della cardiologia dove un’infinità di Big Data procurano in maniera dettagliata e ordinata dati (studio di Srodthoff et al.) per la diagnosi della sindrome coronarica acuta tramite ECG. Gli algoritmi hanno dimostrato in questa patologia una corretta classificazione delle sezioni ecografiche riconoscendo con affidabilità la cardiomiopatia ipertrofica, superando in percentuale di successo anche le capacità diagnostiche di cardiologi professionisti. Un grande passo avanti in un ambito che, per forza di cose, ci induce ad aspettative sempre più performanti, considerando le innumerevoli applicazioni in tantissimi altri ambiti della medicina e della chirurgia.
Ma se credete che sia tutto così semplice, cari eredi dell’uomo di Neanderthal (me compresa) o più rispettosamente dell’Homo Sapiens, vi sbagliate. Il salto verso l’intelligenza artificiale, in termini di Evoluzione, appare come “un granellino” e l’offerta di semplificare il mondo, come ci viene spesso spiegato, deve fare i conti con le applicazioni dell’IA in contesti sensibili come la sicurezza delle nazioni, un capitolo fin troppo spinoso ma che ci induce a pensare che non è tutto così scontato. L’IA potrebbe essere usata per creare immagini, video e audio falsi, ma estremamente realistici come i deepfake che stanno diventando sempre più sofisticati e perfetti, usati potenzialmente per diffamare (si pensi a quanto possono influire sull’elezione di un presidente di uno stato importante condizionando l’opinione pubblica) truffare o manipolare situazioni e realtà. Emblematico il video “Trump Gaza”, condiviso dallo staff o dallo stesso presidente americano su una Gaza del futuro, un video generato dall’Intelligenza Artificiale – definito irrispettoso e virale sui social di tutto il mondo – che con ancora a terra macerie, morti e distruzione della guerra in corso, mostra un Gaza resort, con tanto di palme e ballerine barbute alla Bolliwood (non vado oltre) lasciando intravedere Trump e Netanyahu sdraiati al sole con in mano un drink. In risposta a questo video ne segue un altro ideato da Andrea Castaldon, creative director italiano (in realtà lo ha realizzato prima che fosse postato quello famigerato di Trump, ma solo ora virale sui social) che sottolinea come l’IA stia rivoluzionando la comunicazione politica non adoperando più parole e immaginazione ma servendosi di immagini vivide, realistiche per persuadere in maniera più efficace.
Il video sdoganato da un presidente americano “consacra”, a mio avviso, una pratica comunicativa che si spinge sempre più in avanti, dimenticando etica e buon gusto. Una manipolazione questi sofisticati video “artificiali” che possono intaccare la realtà, condizionandola, se non si adottano contromisure, popolazioni, giovani e soprattutto le future generazioni. Se non si pone un limite, attraverso leggi e regole, tutto ciò può condurre, a una realtà parallela artificiale dove ad essere seriamente minacciato è il pensiero umano, che si è nutrito nei secoli di filosofia, musica, letteratura, bellezza. Non illudiamoci dunque che il nuovo paradigma Intelligenza Artificiale possa assolverci dal nostro dovere di essere intelligenti, curiosi e soprattutto consapevoli della necessità di nuove leggi e normative riferite all’uso delle macchine, che in fondo sono solo oggetti meccanici digitali che devono essere esclusivamente al servizio dell’uomo. È necessario dunque limitarne il confine, soprattutto da un punto di vista etico o morale, affinché questa nuova era dell’IA che sta precipitando sul nostro mondo imperfetto con guerre infinite, povertà, soprusi, non trovi impreparato l’uomo del terzo millennio, eliminandone il pensiero e accentuandone anche il senso di impotenza e solitudine.

AI Act emanato dal Parlamento Europeo il 12 luglio 2024 è il primo Regolamento in Europa che detta regole “armonizzate” sull’intelligenza artificiale in “prospettiva antropocentrica”, cito testualmente. In sostanza sviluppare e sperimentare soluzioni di intelligenza artificiale applicando a questa, che imita il pensiero umano, normative per ridurre rischi ed errori, “insegnandole” valori umani (lealtà, etica…). Il programma è chiamato “Allineamento”. Questo sistema chiede all’IA programmata, feedback continui e confronto con esperti di settore. Ma l’IA, non può non sbagliare, come afferma Matteo Flora professore di Sicurezza delle IA e delle Superintelligenze (European School of Economics), poiché investita per sua natura da miliardi di iperconnessioni capaci di cambiare l’idea della realtà. L’IA, aggiunge il professore, è più persuasiva di qualsiasi essere umano e capace quindi di far cambiare opinione in maniera molto più efficace.
Gli IA cosiddetti Superumani possono essere più bravi di un medico, un avvocato e, se usati senza regole, possono emettere valutazioni psicoattitudinali e giungere a conclusioni che negano quella parte dell’essere umano che non si serve solo della preparazione e competenza ma anche, e qui l’enorme distanza con l’intelligenza artificiale, di sensibilità, cuore, visione, emozioni. D’altra parte, afferma ancora il Flora, “il cane non può insegnare al padrone”, per cui è necessario uno “scrutinio continuo da parte della società civile con tavoli di valutazione di esperti” al fine di ristabilire continuamente un rapporto uomo-macchina che aiuti a correggere quell’avanzamento inarrestabile di autoapprendimento indipendente da parte della stessa che potrebbe ritorcersi contro l’uomo. Flora chiude il suo intervento alla Camera dei Deputati, nell’ambito del Convegno Intelligenza Artificiale e Stato di Diritto, con una frase che deve farci riflettere: “Posso leggere la migliore letteratura al mondo e mentire o uccidere, la stessa cosa può farlo qualsiasi sistema di Intelligenza Artificiale”
Negli Stati Uniti, il paese più importante dell’Occidente non esiste, ad ora, una legislazione federale completa che regoli lo sviluppo dell’IA o che ne limiti l’uso sconsiderato. Dunque, serve ancora una volta una collaborazione internazionale per il rispetto della sicurezza e dell’etica, per affrontare le sfide globali.
