Artist Sujitha S P (Born: 2002 - New Horizon College, Bangalore, Karnataka) – Artificial Intelligence
I pericoli dell’intelligenza artificiale
di Achille De Tommaso
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Quello sopra non è un dialogo tra due alterati mentali, ma è parte di quello tra due “chatbot”, ossia software che simulano le discussioni umane (1). Ma questo particolare dialogo ha qualcosa di specifico: pare abbia spaventato i suoi ideatori. E’ infatti il frutto di un esperimento progettato dalla divisione di ricerca sull'intelligenza artificiale di Facebook nel 2017; ove, alla fine, i due chatbot hanno, di loro iniziativa, creato delle proprie modifiche all'inglese in modo da rendere, pare, più efficiente il proprio lavoro.
Facebook aveva programmato i suoi chatbot per negoziare tra di loro uno scambio di oggetti: una compravendita di cappelli, palline e libri; a ciascuno oggetto era stato assegnato un certo valore. L’esperimento è stato interrotto quando i programmatori si sono accorti che i robot sembravano parlare l'un l'altro in una lingua che i robot capivano, ma che era incomprensibile per gli umani. Per inciso, alcune delle negoziazioni, svolte in questo bizzarro linguaggio, si erano concluse con successo. I chatbot avevano anche imparato a negoziare in modi che sembrano molto umani. Ad esempio, avrebbero fatto finta di rinunciare ad un articolo specifico, per farne abbassare il prezzo.
Come ho scritto, pareva che il programma fosse stato abbandonato dagli sperimentatori per paura di ciò che poteva conseguire dalla perdita di controllo dei chatbot. Nella realtà, in seguito, i ricercatori si sono affrettati a dichiarare che l’interruzione era dovuta al fatto che questo software non era proponibile per interloquire con i clienti.
Ma tant’è, fin dai tempi di Asimov, il tema della perdita di controllo dei robot da parte degli umani è all’ordine del giorno, e l’Intelligenza Artificiale non fa che riproporcelo. Anche perché una delle applicazioni dell’AI è proprio nell’automazione del linguaggio. All'inizio del 2017, Google ha rivelato che l'IA che utilizza per il suo strumento Traduttore, aveva creato una propria lingua, in cui avrebbe tradotto i testi originali, prima di farli uscire tradotti. Un altro studio di OpenAI ha scoperto che l'intelligenza artificiale potrebbe essere incoraggiata a creare un nuovo linguaggio, più efficiente e migliore nel comunicare.
E’ giusto aver paura della IA? Come vedremo, pare che i “pericoli” dell’IA non si limitino al linguaggio.
"Tenete presente ciò che vi dico oggi: "L'IA è molto più pericolosa delle armi nucleari." “. Questa affermazione, se fatta oggi, probabilmente, irriterebbe, per ovvi motivi; ma non è scaturita da Biden o da Putin, ma da Elon Musk, nel corso di una conferenza sulla tecnologia ad Austin, in Texas, nel marzo 2017. E nessuno dovrebbe avere dubbi circa l’autorevolezza e competenza, del fondatore di Tesla e di Space-X, su questo tema. Elon, infatti, aggiunge: "Sono abbastanza vicino all’essere all'avanguardia nell'IA, e questo mi spaventa a morte. Infatti essa è in grado di fare molto di più di quanto quasi tutti oggi sappiano; e con tassi di miglioramento esponenziali; e la cui perdita di controllo è, quindi, sempre più possibile".
Ma, a qualcuno che avesse dubbi circa l’autorevolezza di Elon Musk, personaggio invero molto particolare, propongo questo parere di colui che è considerato il più grande scienziato contemporaneo (morto da poco): "A meno che non impariamo come prepararci ed evitare i potenziali rischi, l'IA potrebbe essere il peggior evento nella storia della nostra civiltà". Questo diceva Stephen Hawking ad una sua conferenza in Portogallo nel 2016. E, considerando il numero e la portata degli eventi insondabilmente orribili nella storia del nostro mondo, questa affermazione ci dovrebbe dire qualcosa.
Se ci chiediamo cosa possa essere questo qualcosa, analizziamo, assieme a Stuart Armstrong alcuni aspetti generali dei pericoli provenienti dall’IA. Stuart Armstrong del Future of Humanity Institute (2) parla dell'IA come di una tecnologia che ci conduce ad un rischio di estinzione se diventasse canaglia. “La stessa guerra nucleare, afferma Armstrong, è a un livello diverso dal punto di vista della distruzione perché ucciderebbe solo una parte del pianeta. Idem per quanto riguarda le pandemie, anche nella loro forma più virulenta. “Invece, se qualcosa dell’IA andasse male, e il 95 percento degli umani venisse ucciso, il restante cinque percento si estinguerebbe subito dopo. Quindi, nonostante il grado di incertezza di queste affermazioni, essa ha già alcune caratteristiche di rischi altamente negativi". Se uno pensa ai rischi della IA pensando che possa generare dei robot killer come Terminator, in prima approssimazione sbaglia; non è in questa direzione che dobbiamo guardare (per lo meno all’inizio…), ma alla potenzialità di creare una intelligenza più intelligente di noi - più socialmente abile e astuta. Quando l'IA può diventare più brava nella ricerca tecnologica, poi, può anche cominciare a far paura”. Il primo impatto di tale tecnologia, sostiene Armstrong, è sicuramente la disoccupazione. Con i robot nelle fabbriche già oggi sperimentiamo questo fenomeno, ma questi sono ancora robot rudimentali. "Supponiamo di creare robot con intelligenza completamente a livello umano, utilizzando magari reti neurologiche; e di essere in grado di copiare questa intelligenza cento, mille volte; addestrarla in cento professioni diverse: avrai decine di migliaia di dipendenti di alto livello in cento professioni, addestrati magari nel giro di una settimana. E se fossero veramente con capacità superiori a quelle umane, si otterrebbero prestazioni inimmaginabili, con conseguenze socialmente inimmaginabili".
Potremmo involontariamente creare robot killer? Anche qui la domanda – secondo Armstrong - è mal posta:” dovremmo in realtà chiederci se siamo a rischio di inventare robot che possano involontariamente creare danni agli esseri umani; qualsiasi tipo di danno”. E la risposta è incerta perché, secondo Armstrong, la prima parte dell'argomento è che potrebbero diventare molto intelligenti e quindi molto potenti, soprattutto se inseriti nei processi decisionali non solo industriali, ma, magari, anche politici. La seconda parte è che sarà estremamente difficile programmare una sorta di struttura motivazionale, industriale etica, sociale, che si traduca in un risultato sicuro per un essere così potente; di intelligenza magari superiore alla nostra. Potremmo essere manipolati dalla IA, e non accorgercene. Già oggi, col grado attuale di complessità, non siamo in grado di programmare dei software affidabili al 100%: durante l’uso di un qualsiasi software possono verificarsi situazioni impreviste al programmatore, che lo mandano in blocco, o lo fanno comportare in maniera anomala. Il rilascio di nuove “release” per ovviare a “bachi di programma” è all’ordine del giorno in ambiente informatico.
Possiamo davvero pensare che l'IA possa giungere a un punto così pericoloso? Lo scienziato cognitivo e autore Gary Marcus ci propone alcuni approfondimenti in un illuminante saggio del New Yorker del 2013 (3). “Più le macchine diventano intelligenti, ha scritto, più i loro obiettivi potrebbero cambiare. Una volta che i computer possano riprogrammarsi efficacemente, e successivamente migliorarsi, portando a una cosiddetta 'singolarità tecnologica' o 'esplosione di intelligenza', i rischi di avere macchine che superano in astuzia gli umani nelle battaglie per le risorse e l'autoconservazione non possono essere semplicemente ignorati".
Un nuovo libro di James Barrat, "Our Final Invention: Artificial Intelligence and the End of the Human Era”, espone una solida argomentazione sul motivo per cui dovremmo essere almeno un po' preoccupati. L'argomento principale di Barrat, che prende in prestito dal ricercatore di intelligenza artificiale Steve Omohundro, è che la spinta all'autoconservazione e all'acquisizione di risorse può essere inerente a tutti i sistemi guidati da obiettivi di un certo grado di intelligenza. Un'intelligenza artificiale puramente razionale, scrive Barrat, potrebbe “espandere la sua idea di autoconservazione... per includere attacchi proattivi a minacce future", comprese, presumibilmente, persone che potrebbero essere restie a cedere le proprie risorse alla macchina. Barrat teme che "senza istruzioni meticolose e compensative, un sistema consapevole di sé, che migliora se stesso per raggiungere gli obiettivi, farà di tutto per raggiungere i suoi obiettivi".
E poi, come instilliamo nelle macchine i valori della cultura umana? Secondo il filosofo di Oxford Nick Bostrom:
Non possiamo allegramente presumere che una superintelligenza condividerà necessariamente nessuno dei valori finali stereotipicamente associati alla saggezza e allo sviluppo intellettuale negli esseri umani: curiosità scientifica, interesse benevolo per gli altri, illuminazione spirituale e contemplazione, rinuncia all'acquisizione materiale, gusto per la cultura raffinata o per i semplici piaceri della vita, l'umiltà e l'altruismo, e così via.
Ci stiamo fasciando la testa prima di rompercela? In fondo molta della IA avverrà tra decenni. In realtà i progressi nell'IA hanno però già oggi creato rischi di danni e danni reali, che non avremmo mai immaginato. Con l'avvento dell'era di Internet e della esplosione dei Big Data, "grandi quantità di dati vengono raccolti su di noi e poi inviati ad algoritmi per fare previsioni", afferma Vaibhav Garg , specialista del rischio informatico presso la Drexel University. "Non abbiamo la capacità di sapere quando i dati vengono raccolti, di garantire che i dati raccolti siano corretti, di aggiornare le informazioni o di fornire il contesto necessario". Poche persone avrebbero nemmeno sognato questo rischio nemmeno vent'anni fa. Quali rischi ci aspettano? Nessuno lo sa davvero, ma abbiamo ragione di cominciare a chiedercelo.
E la testa ce la siamo già rotta: col “trading algoritmico”(4). Esso è quello che rappresenta per il sistema finanziario, come poi si è capito, un sistema utile ad agire in maniera rapida e senza intervento umano, ma capace di amplificare in maniera incontrollabile i possibili errori. Il “Flash Crash” (5) del maggio 2010 è un ottimo esempio di questo rischio che ha comportato una catastrofe. Il Flash Crash peggiore della storia si riferisce al calo dal 5% al 16% dei principali indici azionari statunitensi nell'arco di pochi minuti nel pomeriggio del 6 maggio 2010. Il Dow Jones quel giorno è precipitato di quasi 1.000 punti, il che è stato il più grande calo mai registrato; oltre 20.000 operazioni sono state effettuate a prezzi fino al 60% distanti dai loro valori di pochi istanti prima. Ovviamente la colpa è del programma, e dei suoi programmatori, che non avevano previsto un singolo scambio da 4,1 miliardi di dollari da parte di un trader di una società di fondi comuni; e lo “spoofing” (6) di un certo sig. Sarao, che avrebbe utilizzato quella tattica, immettendo grandi volumi di ordini falsi. E’ una dimostrazione che sistemi automatici, progettati per lavorare meglio degli esseri umani, possono condurre ad enormi danni imprevedibili.
Ed ora il rischio finale, il rischio più letale: armi autonome e una potenziale corsa agli armamenti dell'IA
Cosa succede se l'IA decide di lanciare armi nucleari - o, diciamo, armi biologiche - senza l'intervento umano? Oppure, cosa succede se un nemico manipola i dati per restituire i missili guidati dall'IA da dove provengono? Entrambe sono possibilità. Gli oltre 30.000 ricercatori di IA/robotica e altri che hanno firmato una lettera aperta sull'argomento nel 2015 (7) la pensano certamente così.
"La domanda chiave per l'umanità, oggi, è se sia giusto avviare una corsa agli armamenti IA globale oppure impedirne l'inizio", hanno scritto. “Se una delle principali potenze militari porta avanti lo sviluppo di armi dell'IA, una corsa agli armamenti globale è praticamente inevitabile e il punto finale di questa traiettoria tecnologica è ovvio: le armi autonome diventeranno i Kalashnikov di domani. A differenza delle armi nucleari, non richiedono materie prime costose o difficili da ottenere, quindi diventeranno onnipresenti ed economiche per la produzione in serie da parte di tutte le potenze militari significative. Sarà solo questione di tempo prima che appaiano sul mercato nero e nelle mani di terroristi, dittatori che desiderano controllare meglio la loro popolazione, signori della guerra che desiderano perpetrare la pulizia etnica, ecc. Le armi autonome sono ideali per compiti come omicidi, destabilizzazione nazioni, sottomettere le popolazioni e uccidere selettivamente un particolare gruppo etnico. Riteniamo quindi che una corsa agli armamenti dotati di IA non sarebbe benefica per l'umanità”.
Il budget di spesa militare statunitense per il 2021 è stato di 718 miliardi di dollari. Di tale importo, quasi 1 miliardo di dollari sosterrebbe l'intelligenza artificiale.
Nel novembre 2021, un gruppo del Pentagono chiamato Defense Innovation Board ha pubblicato linee guida etiche relative alla progettazione e al dispiegamento di armi abilitate all'IA. Secondo il Washington Post, tuttavia, “le raccomandazioni del DIB non sono in alcun modo giuridicamente vincolanti. Spetta al Pentagono determinare come e se procedere con loro". C’è da stare tranquilli?
Qui di seguito un riassunto dei temi della IA che fanno intravvedere i maggiori rischi:
- Perdita di posti di lavoro provocata dall'automazione
- Violazioni della privacy
- 'Deepfake'
- Bias algoritmico causato da dati errati
- Disuguaglianza socioeconomica
- Volatilità del mercato
- Automatizzazione delle armi
Molti credono che l'unico modo per impedire o almeno diminuire i rischi circa l'IA sia una sorta di regolamentazione. Regolamentazione da effettuare in maniera selettiva, considerando che qualsiasi paese che sia in ritardo nello sviluppo dell'IA potrebbe trovarsi in netto svantaggio: militarmente, socialmente ed economicamente.
"La tecnologia è stata in grado di aiutarci sin dall'inizio dell'umanità. Ma come razza non abbiamo mai affrontato la forte possibilità che le macchine possano diventare più intelligenti di noi o essere intrise di coscienza”
John C. Havens “Heartificial Intelligence”
***
- un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. I chatbot possono essere semplici, come programmi rudimentali che rispondono a una semplice query con una singola riga oppure sofisticati come gli assistenti digitali che apprendono e si evolvono per fornire livelli crescenti di personalizzazione quando raccolgono ed elaborano le informazioni. Probabilmente avete già interagito con un chatbot che lo sappiate o meno. Ad esempio, sei al computer alla ricerca di un prodotto e una finestra si apre sullo schermo chiedendoti, vocalmente, se hai bisogno di aiuto. O forse stai andando a un concerto e usi lo smartphone per richiedere un passaggio tramite chat. Oppure potresti aver usato i comandi vocali per ordinare una colazione al tuo ristorante di quartiere e hai ricevuto una risposta che ti diceva quando il tuo ordine sarà pronto e il relativo costo. Questi sono tutti esempi di scenari in cui potresti incontrare un chatbot. https://www.oracle.com/it/chatbots/what-is-a-chatbot/
- Future of Humanity Institute is a multidisciplinary research institute at the University of Oxford. Academics at FHI bring the tools of mathematics, philosophy and social sciences to bear on big-picture questions about humanity and its prospects. The Institute is led by Founding Director Professor Nick Bostrom.
- https://www.newyorker.com/tech/annals-of-technology/why-we-should-think-about-the-threat-of-artificial-intelligence
- Il trading algoritmico è un metodo per eseguire gli ordini di borsa utilizzando istruzioni di trading preprogrammate automatiche che tengono conto di variabili come tempo, prezzo e volume. Questo tipo di trading cerca di sfruttare la velocità e le risorse computazionali dei computer rispetto ai trader umani. https://www.entrepreneur.com/article/377985
- Flash crash è un termine ormai entrato nell’uso corrente del mercato finanziario per indicare questi sbalzi improvvisi e, a volte, apparentemente ingiustificati.
- Lo spoofing è un tipo di truffa in cui un criminale maschera un indirizzo e-mail, un nome visualizzato, un numero di telefono, un messaggio di testo o l'URL di un sito Web per convincere un bersaglio che sta interagendo con una fonte nota e attendibile.
- https://futureoflife.org/2016/02/09/open-letter-autonomous-weapons-ai-robotics/