Dalle performance tecniche ai dubbi etici, dallo sviluppo economico all’impatto ambientale globale, l’Artificial Intelligence Index Report, edito dall’Università di Stanford, e giunto quest’anno alla sesta edizione, descrive in otto poderosi capitoli lo stato dell’arte dell’intelligenza artificiale. Lo scopo non è solo fornire dati più possibile dettagliati e aggiornati agli addetti ai lavori, incrociando punti di vista e competenze diverse, ma anche e soprattutto aggiornare policymaker, giornalisti, e anche il grande pubblico sui progressi tangibili e le prospettive di questo strumento che all’improvviso (o così è sembrato) ha fatto irruzione nella vita quotidiana e nel dibattito pubblico.
Ne abbiamo parlato con Loredana Fattorini, ricercatrice all’Institute for Human-Centered Artificial Intelligence dell’Università di Stanford e Guest Scholar della Scuola IMT, oltre che coautrice dell’AI Report.
Il 2022 è stato l’anno in cui il grande pubblico “si è accorto” dell’esistenza dell’intelligenza artificiale, delle sue enormi potenzialità, e forse dei suoi rischi. I progressi dell’intelligenza artificiale sono stati davvero così esplosivi come sono apparsi ai non addetti ai lavori oppure si è trattato di un’accelerazione lenta e costante di cui non ci siamo resi conto?
Il 2022 è stato un anno molto importante per la percezione pubblica dell’intelligenza artificiale (IA). Grazie al lancio di numerosi sistemi, le frontiere di questa tecnologia sono state ridefinite e si sono aperte le porte per svariati utilizzi, anche da parte dei non specialisti del settore. In particolare, a dominare la scena sono stati numerosi modelli di intelligenza artificiale generativa avanzata che a partire da semplici istruzioni in linguaggio umano, detti “prompts”, sono in grado di generare immagini, testi, video o codice. Tra i modelli che hanno spopolato troviamo ad esempio DALL-E 2, Stable Diffusion, e Midjourney, che hanno dimostrato capacità rivoluzionarie nella generazione combinata di testo e immagine, e Make-A-Video, un sistema innovativo per la creazione di contenuti video basati su input di testo. Inoltre, il rilascio di chatbot come ChatGPT ha offerto nuove e coinvolgenti modalità di interazione con l’IA. Questi sviluppi non solo hanno confermato il rapido avanzamento della disciplina, ma hanno anche stimolato l’immaginazione del pubblico riguardo alle possibili applicazioni dell’IA.
Tuttavia, la narrazione di una crescita esplosiva non rappresenta l’intero quadro. Nella storia della ricerca sull’intelligenza artificiale ci sono stati numerosi momenti chiave che hanno spinto in avanti il campo, anche se arrivati meno all’attenzione del grande pubblico. Ad esempio, nel 2012 il successo delle reti neurali convoluzionali nell’ImageNet Challenge ha catalizzato un enorme interesse nella comunità scientifica e ha portato ad ampi investimenti nella ricerca dell’IA e in particolare nella branca del Deep Learning. Questo evento ha segnato l’inizio di una nuova era per l’IA, con notevoli miglioramenti, ad esempio nelle capacità di riconoscimento delle immagini e nella traduzione automatica di alta qualità. Da quel punto di svolta, gli sviluppi nella ricerca dell’IA hanno continuato a crescere a un ritmo sostenuto. La nascita e l’evoluzione di grandi modelli di linguaggio come GPT-3 e BERT hanno poi notevolmente ampliato le frontiere dell’elaborazione del linguaggio naturale, dimostrando capacità linguistiche precedentemente inimmaginabili per una macchina. Questa percezione di progresso accelerato è quindi alimentata dalla combinazione di diversi fattori come l’aumento della potenza di calcolo, la disponibilità di set di dati di grandi dimensioni e continui avanzamenti algoritmici. In conclusione, mentre per il grande pubblico potrebbe sembrare che l’IA abbia fatto progressi “esplosivi” recentemente, in realtà questi progressi sono il risultato di anni di ricerca accumulata. Tuttavia, è innegabile che adesso gli sviluppi stiano avvenendo a un ritmo impressionante e con un impatto senza precedenti.
Quali sono i compiti su cui l’AI è più avanzata?
L’intelligenza artificiale ha fatto significativi progressi in una vasta gamma di compiti, e in alcuni di essi ha addirittura superato le capacità umane. Un campo in cui sicuramente l’IA ha dimostrato eccezionali capacità è quello del riconoscimento delle immagini. Le reti neurali convoluzionali, una sottocategoria di modelli di Deep Learning, hanno rivoluzionato questo settore. Nel 2012, come già accennato, l’IA ha dimostrato capacità impressionanti nell’ImageNet Challenge, un benchmark per il riconoscimento delle immagini, raggiungendo e in alcuni casi superando le prestazioni umane. Un altro campo in cui le prestazioni sono avanzate è sicuramente quello dei giochi di strategia: AlphaGo, sviluppato da DeepMind, ha sorpreso il mondo nel 2016 quando ha sconfitto uno dei migliori giocatori al mondo a Go, un gioco tradizionalmente considerato troppo complesso per le macchine a causa della sua vasta gamma di possibili mosse. Poi c’è la comprensione del linguaggio naturale: modelli come BERT e GPT-3 sono ormai in grado di comprendere e rispondere alle domande, completare frasi e perfino scrivere saggi, dimostrando una notevole padronanza del linguaggio umano. E infine, la cosiddetta IA generativa è uno dei campi più entusiasmanti dell’intelligenza artificiale al momento. Con la capacità di sintetizzare informazioni e crearne di nuove, queste IA possono produrre testi, immagini e video molto realistici.
E quelli invece su cui ancora fatica?
I limiti riguardano soprattutto l’esecuzione di compiti che richiedono un profondo ragionamento e capacità di generalizzazione tra diversi domini. Mentre l’IA può essere formidabile nel riconoscere schemi in grandi set di dati o nel risolvere problemi specifici per cui è stata addestrata, spesso fatica nei compiti che richiedono un ragionamento profondo e logico. Ad esempio, un modello IA può essere in grado di risolvere problemi matematici complessi, ma potrebbe avere difficoltà a comprendere e rispondere a domande etiche che richiedono ragionamento e interpretazione. Un altro ambito in cui fatica è quello dell’estrazione e generalizzazione. Uno dei grandi vantaggi dell’intelligenza umana è la nostra capacità di imparare concetti in un dominio e applicarli in un altro, cioè di generalizzare. L’IA tende a essere altamente specializzata. Ad esempio, un modello che è eccellente nel giocare a scacchi potrebbe non avere alcuna competenza nel giocare a Go, a meno che non venga specificamente addestrato per farlo. Infine, l’IA manca ancora di intuizione ed empatia: mentre l’IA può fino a un certo punto simulare le interazioni umane, fatica ancora a comprendere veramente le emozioni.
Hanno un qualche fondamento i timori che si sentono ripetere: che l’intelligenza artificiale faccia perdere il lavoro alle persone, faccia scomparire professioni? E quelli invece che diventi “autocosciente” e ci elimini dalla faccia della Terra?
Per quanto riguarda l’impatto sul lavoro, la storia dell’innovazione tecnologica ci mostra che ogni grande rivoluzione porta con sé una trasformazione delle professioni e del mercato del lavoro. Prendendo ad esempio la rivoluzione dell’elettricità, abbiamo visto come abbia reso obsolete molte professioni legate alle tecnologie precedenti, ma allo stesso tempo abbia dato vita a nuovi lavori e aperto la strada a interi settori inesistenti prima. Analogamente, l’IA potrebbe effettivamente rendere obsolete alcune professioni, soprattutto quelle con mansioni altamente ripetitive. Nello stesso tempo, l’IA potrebbe anche creare nuovi lavori e nuove opportunità, come lo sviluppo, la manutenzione e la supervisione di sistemi IA, oltre a ruoli che magari non possiamo ancora immaginare. Il vero problema non è tanto l’eliminazione dei lavori ma piuttosto la transizione e come assicurarsi che le persone siano formate e preparate per i nuovi ruoli emergenti e ad integrare queste tecnologie per efficientare il loro lavoro. Il concetto di un’IA “autocosciente” è argomento di molte discussioni, sia nella comunità scientifica sia nella cultura popolare. La maggior parte degli esperti nel campo dell’IA concorda sul fatto che ci troviamo ancora molto lontani dal creare una macchina veramente “cosciente” in qualsiasi senso umano del termine. Al momento, le IA sono strumenti avanzati che eseguono compiti specifici per i quali sono state addestrate, senza alcun senso di consapevolezza. Tuttavia, esistono diverse scuole di pensiero riguardo ai potenziali rischi futuri. Alcuni esperti sostengono che dovremmo essere cauti nell’avanzare verso un’IA di livello superumano, mentre altri ritengono che tali preoccupazioni siano esagerate o infondate. Ciò che è indiscutibile è la necessità di un dibattito continuo, di linee guida etiche e di una ricerca responsabile nel campo dell’IA per assicurarsi che le tecnologie emergenti siano sviluppate in modo sicuro e al servizio dell’umanità.
Che problemi ha l’intelligenza artificiale dal punto di vista etico?
Molti dei problemi etici emergono dalla natura dei dati con cui i modelli vengono addestrati, e dagli usi specifici dell’IA in vari contesti. I modelli di IA sono spesso addestrati su grandi set di dati che riflettono i bias esistenti nella società. Ad esempio, ci sono stati casi in cui i sistemi di riconoscimento facciale hanno mostrato bias razziali o di genere, con performance migliori su determinate etnie rispetto ad altre. Questo è particolarmente problematico quando questi sistemi sono utilizzati in contesti sensibili come la sorveglianza o la selezione del personale. Con l’abilità di analizzare enormi quantità di dati, inoltre, l’IA ha il potenziale di violare la privacy degli individui. E ci sono preoccupazioni su come l’IA possa essere utilizzata per sorvegliare, tracciare e perfino prevedere comportamenti senza il consenso informato degli individui coinvolti. Man mano poi che l’IA diventa sempre più integrata nelle decisioni quotidiane, si pone la domanda: chi è responsabile quando un sistema IA prende una decisione sbagliata o dannosa? Infine, la capacità dell’IA di generare contenuti realistici, come immagini, video e testo, ha sollevato preoccupazioni riguardo alla disinformazione e alla manipolazione. Ad esempio, i “deepfakes”, video manipolati tramite IA per mostrare individui che dicono o fanno cose che non hanno mai fatto, rappresentano una minaccia per la veridicità delle informazioni online.
Il nostro – timori compresi – è uno sguardo occidentale, ma non tutto il mondo guarda nello stesso modo agli sviluppi dell’intelligenza artificiale: chi è più e chi meno fiducioso?
L’atteggiamento globale nei confronti dell’intelligenza artificiale è estremamente variegato e dipende da una serie di fattori, tra cui la cultura, l’istruzione, l’esperienza con la tecnologia e la percezione dei benefici economici e sociali. Secondo un’indagine del 2021 di LLoyd’s Register Foundation e Gallupp, la percezione dell’intelligenza artificiale varia considerevolmente tra le varie regioni. In Asia orientale, ad esempio, l’ottimismo prevale, con un rapporto di 4,4 a 1 tra coloro che pensano che l’IA avrà principalmente un impatto positivo rispetto a quelli che pensano il contrario. Questo potrebbe riflettere una maggiore familiarità e adozione della tecnologia, o un’accentuata focalizzazione sulla potenzialità economica che l’IA può offrire. L’Africa orientale, l’Africa settentrionale e l’Africa meridionale invece mostrano un maggiore pessimismo. Infatti molti vedono l’IA come una potenziale minaccia piuttosto che un beneficio. Un’indagine IPSOS del 2021 ha evidenziato differenze altrettanto significative nella percezione dei vantaggi dell’IA. La Cina, l’Arabia Saudita e l’India sono tra i paesi più ottimisti, con rispettivamente il 78 per cento, il 76 per cento e il 71 per cento dei partecipanti che vedono più vantaggi che svantaggi nell’uso di prodotti e servizi basati sull’IA. Questi risultati riflettono probabilmente una combinazione di rapido sviluppo tecnologico, ambizioni governative e una crescente classe media più propensa all’innovazione. Al contrario, paesi come gli Stati Uniti, la Francia e il Canada mostrano una maggiore cautela o persino scetticismo. Solo il 35 per cento dei partecipanti americani, ad esempio, pensa che i prodotti e i servizi che utilizzano l’IA abbiano più vantaggi che svantaggi. Questa discrepanza potrebbe derivare da preoccupazioni relative alla privacy, all’occupazione o ai rischi sociali.
Questi sondaggi rivelano che non esiste una visione unica dell’IA; piuttosto, la percezione varia in base a contesti culturali, economici e sociali specifici. È fondamentale comprendere queste sfumature per garantire che lo sviluppo e l’adozione dell’AI avvengano in modo che sia vantaggioso e accettabile per tutti.
Ci sono esempi di paesi che hanno già regolato gli utilizzi dell’intelligenza artificiale?
Sì, diversi paesi lo hanno fatto o lo stanno facendo. Nell’aprile 2021, la Commissione Europea ha proposto il primo quadro normativo sull’IA per l’intera Unione Europea, con l’obiettivo di valutare e classificare i sistemi IA in base al potenziale rischio che possono presentare per gli utenti. A seconda del livello di rischio identificato, i sistemi IA saranno soggetti a diversi gradi di regolamentazione. Una volta ratificate, queste regole rappresenteranno le prime del loro genere a livello globale, stabilendo l’UE come leader nella regolamentazione responsabile dell’intelligenza artificiale. Il quadro complessivo mostra comunque un forte incremento nell’interesse legislativo, come risulta dall’analisi dell’AI Index delle leggi correlate all’IA dal 2016 al 2022. Nel 2022, 37 disegni di legge sull’IA sono stati approvati a livello globale. Gli Stati Uniti hanno guidato la lista con nove leggi, seguiti da Spagna e Filippine.
Oltre alla legislazione, un paese può delineare la sua visione e i suoi obiettivi per l’IA attraverso una strategia nazionale. Questa strategia è un piano d’azione sviluppato per definire come il paese affronterà lo sviluppo, l’adozione e la gestione dell’IA. L’AI Index ha registrato che, a partire dal 2017 con il Canada, 62 paesi hanno rilasciato le proprie strategie nazionali sull’AI. Solo nel 2022, Italia e Thailandia hanno annunciato le loro strategie sull’IA. Queste strategie riflettono come ogni nazione intende sostenere l’IA, massimizzando i benefici per la società e gestendone i rischi associati.
Chiara Palmerini