Ernesto di Battista (Caldogno, Vicenza) – Artificiale I. A. (1981)
Intelligenza Artificiale; tappa obbligata dell’evoluzione?
di Achille De Tommaso
Ritengo che l’Intelligenza Artificiale (nel seguito IA), occupi a buon diritto un posto nella disciplina dell’Antropologia Digitale. Anche se, e mi piace sottolinearlo, la parte “digitale” è forse solo un aspetto di questa antropologia, che si nutre anche di filosofia e di molto altro.
E in questo scritto desidero proporre, quindi, come scritto collaterale alla riunione del 27 aprile 2022, le visioni di alcuni scienziati, che considerano l’IA come parte integrante e importante dell’evoluzione dell’essere umano. Anzi, addirittura, per alcuni, come tappa obbligata del percorso verso questa evoluzione umana. Anche se alcuni altri scienziati pensano che l’IA, in realtà, sia morta.
***
L’intelligenza artificiale ha una data di nascita ufficiale, il 1956, l’anno del ritenuto famoso seminario estivo tenutosi presso il Dartmouth College di Hanover nel New Hampshire durante il quale la nuova disciplina venne fondata programmaticamente. Ma possiamo andare anche un pochino indietro nel tempo, alla ricerca di altri speculatori sulla IA. Il test di Turing (2), ad esempio, è un criterio per determinare se una macchina sia in grado di esibire un comportamento intelligente. Tale criterio fu suggerito da Alan Turing nell'articolo “Computing Machinery and Intelligence”, apparso nel 1950 sulla rivista Mind. E ci furono in precedenza altri speculatori circa l’intelligenza delle macchine: ricordiamo infatti Charles Babbage e la sua macchina analitica, Gottfried Wilhelm Leibniz e il suo progetto di meccanizzare la ragione, risalendo fino alla macchina logica di Raimondo Lullo e agli automi semoventi di Erone di Alessandria. Ma queste, invero, erano persone che, possiamo dire, filosofeggiassero sulla possibile intelligenza delle macchine. E, visti i tempi, non erano in grado di analizzare il tema alla luce della tecnologia che oggi possediamo; tecnologia che veramente apre alla possibile realizzazione di questo tipo di intelligenza.
Vi sono varie discipline che contribuiscono alla struttura dell’IA; tra di esse: Filosofia, Matematica, Economia, Neuroscienze, Psicologia, Computer Engineering, Cibernetica, Linguistica.
CI SONO DUE LIBRI CONSIDERATI IMPORTANTI PER LO STUDIO DELL’IA E DELLA SUA “FILOSOFIA” (altri ne trovate alla nota (12):
Oggigiorno, per gli studiosi accademici, il libro di riferimento sull’IA pare essere “Artificial Intelligence: A Modern Approach (IAMA)”, è un libro universitario, scritto da Stuart J. Russell e Peter Norvig. È stato pubblicato per la prima volta nel 1995 e la quarta edizione del libro è apparsa il 28 aprile 2020. È utilizzato in oltre 1400 università in tutto il mondo ed è stato definito "il libro di testo di intelligenza artificiale più popolare al mondo". Gli autori affermano che si tratti di un testo di grandi dimensioni che richiederebbe due semestri per coprire tutti i capitoli e i progetti; e poi presentarsi all’esame.
La linguistica; il dibattito tra Peter Novig e Noam Chomsky sul futuro dell’IA
Il libro suddetto è molto focalizzato sulla linguistica, intendendo la stessa come strumento per esprimere conoscenza e quindi fondamentale base di studio dell’IA. Nell’ambiente dell’IA è molto noto l’acceso dibattito tra Peter Novig, coautore del libro, e ex direttore della ricerca di Google, e Noam Chomsky, uno dei più famosi linguisti americani. Chomsky, scienziato della vecchia guardia, desidera perseguire un'elegante teoria dell'intelligenza e del linguaggio che guardi oltre la fallibilità umana, per cercare di vedere una struttura sottostante che sia semplice. Norvig, invece, rappresenta una nuova filosofia con: “al diavolo la verità fatta di semplicità”. Disilluso dai modelli semplici, Norvig afferma che, se si hanno dati sufficienti, tentare di adattare un qualsiasi modello per farlo diventare semplice è inutile.
Chomsky, da parte sua, invece, deride i ricercatori dell'apprendimento automatico, che usano metodi puramente statistici per capire e riprodurre dei comportamenti, ma che non cercano di capire il significato di quel comportamento. Chomsky ha paragonato questi ricercatori a scienziati che potrebbero studiare la danza fatta da un'ape che torna all'alveare e che potrebbero produrre una simulazione statistica di tale danza senza tentare di capire perché l'ape si comporta in quel modo. E questo assunto ci porta ai temi discussi al termine di questo scritto. Ho citato infatti questo libro non solo perché è ritenuto un testo importante per capire l’IA, ma anche perché introduce un concetto che pare fondamentale per fare l’IA e che dovrebbe spiegare gli errori sin qui fatti, sul tema. Il concetto è: “Non si può fare IA se non si capisce il cervello”. E Chomsky cerca di farci capire questo concetto.
Ma il libro che più mi affascina per i suoi contenuti di proiezione futura dell’IA è: “The Singularity Is Near: When Humans Transcend Biology”, che è un libro del 2005, sull'intelligenza artificiale e sul futuro dell'umanità, scritto da Kurzweil; di cui mi piace parlarvi.
Raymond Kurzweil (nato il 12 febbraio 1948) è un inventore e futurista americano; è coinvolto in campi come la sintesi vocale e la tecnologia di riconoscimento vocale. Ha scritto libri sulla IA, sul transumanesimo (5), e sulla singolarità tecnologica. Kurzweil è un pubblico sostenitore delle tecnologie di estensione della vita e sul futuro della nanotecnologia, della robotica e della biotecnologia. Ha ricevuto nel 1999 la National Medal of Technology and Innovation, la più alta onorificenza degli Stati Uniti per la tecnologia.
Il libro suddetto si basa su idee introdotte nei precedenti libri dello stesso Kurzweil, “The Age of Intelligent Machines” (1990) e “The Age of Spiritual Machines” (1999). In questo libro, tuttavia, c’è una novità: Kurzweil abbraccia il termine “Singularity”, termine che approfondisco nelle note, e che è stato reso popolare da Vernor Vinge nel suo saggio del 1993 "The Coming Technological Singularity".
Ciò che rende il libro originale è il suo tentativo di caratterizzare l'evoluzione come un progresso attraverso sei epoche, ognuna costruita su quella precedente. E l’IA come parte integrante di questa evoluzione.
Epoca 1. Fisica e chimica. All'inizio dell'universo, tutte le informazioni esistevano a livello subatomico.
Epoca 2. Biologia e DNA. Con l'inizio della vita sulla Terra, le informazioni genetiche sono state immagazzinate in molecole di DNA: gli organismi hanno però impiegato migliaia, milioni di anni per evolversi.
Epoca 3. Cervello. L'evoluzione ha prodotto organismi sempre più complessi. La nascita del cervello ha permesso agli organismi di cambiare il loro comportamento e imparare dalle esperienze passate.
Epoca 4. Tecnologia. Gli esseri umani si sono evoluti in organismi con la capacità di creare tecnologia. Siamo proprio ora nelle fasi finali di quest'epoca.
Epoca 5. La fusione della tecnologia umana con l'intelligenza umana. Biologia e tecnologia inizieranno a fondersi per creare forme di vita e intelligenza superiori.
Epoca 6. L'universo si sveglia. Questa epoca vedrà la nascita della superintelligenza e, con essa, gli esseri umani/macchine che si espandono nell'Universo.
Kurzweil spiega anche che il progresso evolutivo è esponenziale a causa del feedback positivo: i risultati di una fase vengono utilizzati per creare la fase successiva.
Kurzweil chiama questa crescita esponenziale la legge dei rendimenti accelerati e crede che si applichi a molte tecnologie create dall'uomo, come la memoria dei computer, i transistor, i microprocessori, il sequenziamento del DNA, l’archiviazione magnetica, Internet, la costante diminuzione delle dimensioni dei dispositivi. Kurzweil cita due esempi storici di crescita esponenziale: il Progetto Genoma Umano e la crescita di Internet.
La Capacità Computazionale
Un pilastro fondamentale dell'argomento di Kurzweil è che per arrivare alla Singolarità (1), la capacità computazionale è un collo di bottiglia tanto quanto altre cose come la qualità degli algoritmi usati e la comprensione del cervello umano. La legge di Moore prevede che la capacità dei circuiti integrati cresca in modo esponenziale. Kurzweil ritiene che l'aumento della capacità dei circuiti integrati non sarà però indefinito, ma rallenterà probabilmente entro il 2020. È fiducioso che a quel punto debutterà un nuovo paradigma per portare avanti la crescita esponenziale prevista dalla sua legge di accelerazione dei rendimenti. Kurzweil descrive quattro paradigmi dell'informatica che sono venuti prima dei circuiti integrati: elettromeccanico, relè, tubo a vuoto e transistor. Quale tecnologia seguirà i circuiti integrati, per fungere da sesto paradigma, non è noto; ma Kurzweil ritiene che i nanotubi siano l'alternativa più probabile tra una serie di altre possibilità, come: nanotubi e circuiti di nanotubi, calcolo molecolare, autoassemblaggio in circuiti di nanotubi, sistemi biologici che emulano l'assemblaggio di circuiti, calcolo con DNA, spintronica (calcolo usando lo spin degli elettroni), calcolo usando la luce laser e calcolo quantistico.
Dal momento che Kurzweil crede che la capacità di calcolo continuerà a crescere esponenzialmente molto tempo dopo la fine della legge di Moore; essa, alla fine, rivaleggerà con la pura potenza di calcolo del cervello umano. Kurzweil esamina diverse stime di quanta capacità di calcolo c'è nel cervello e si basa su 1016 calcoli al secondo e 1013 bit di memoria. Scrive che, entro il 2020, con 1.000 $ si comprerà la potenza di un computer “pari a un singolo cervello”; mentre entro il 2045, l'inizio della Singolarità, afferma che la stessa quantità di denaro acquisterà un miliardo di volte più potenza di tutti i cervelli umani messi insieme oggi. Kurzweil ammette che la tendenza esponenziale all'aumento della potenza di calcolo raggiungerà un limite alla fine, ma calcola che quel limite sarà trilioni di volte oltre quanto necessario per la Singolarità.
Il cervello
Kurzweil osserva quindi che la capacità computazionale da sola non creerà intelligenza artificiale. Afferma che il modo migliore per costruire l'IA è prima di tutto comprendere l'intelligenza umana. Il primo passo è immaginare il cervello, scrutarci dentro. Kurzweil afferma che le tecnologie di imaging come PET (tomografia ad emissione di positroni) e fMRI (risonanza magnetica funzionale) stiano aumentando esponenzialmente in risoluzione, mentre prevede che saranno ottenuti dettagli ancora maggiori negli anni '20 (adesso!), (13) quando dovrebbe essere possibile scansionare il cervello dall'interno utilizzando nanobot (8). Una volta che la struttura fisica e le informazioni sulla connettività saranno note, Kurzweil afferma che i ricercatori saranno in grado di produrre modelli funzionali di componenti subcellulari e sinapsi fino a intere regioni del cervello. Il cervello umano è "una complessa gerarchia di sistemi complessi, ma non rappresenta – secondo lui - un livello di complessità superiore a quello che siamo già in grado di gestire".
Oltre al reverse engineering del cervello per comprenderlo ed emularlo, Kurzweil introduce l'idea di "caricare" un cervello specifico con ogni processo mentale, da collocare su un "substrato computazionale adeguatamente potente". Come detto prima, scrive che la modellazione generale richiede 1016 calcoli al secondo e 1013 bit di memoria, ma poi spiega che il caricamento richiede dettagli aggiuntivi, forse fino a 1019 cps e 1018 bit. Kurzweil afferma che la tecnologia per farlo sarà disponibile entro il 2040. Piuttosto che una scansione istantanea e una conversione in forma digitale, Kurzweil ritiene che molto probabilmente gli esseri umani sperimenteranno una conversione graduale poiché parti del loro cervello potranno essere potenziate con impianti neurali, aumentando lentamente la loro percentuale di intelligenza non biologica nel tempo.
La coscienza
Kurzweil crede che "nessun test oggettivo possa determinare in modo definitivo la presenza della coscienza”. Pertanto, afferma che le intelligenze non biologiche potrebbero affermare non solo di avere coscienza; ma anche "l'intera gamma di esperienze emotive e spirituali che gli esseri umani affermano di avere"; egli ritiene che tali affermazioni saranno generalmente, in futuro, accettate.
COS’E’ L’INTELLIGENZA? GLI ERRORI FATTI NELLA IA.
A parte ciò che Kurzweil scrive, l'intelligenza artificiale è un perfetto esempio di come a volte la scienza si muova più lentamente di quanto avremmo previsto. Nella prima ondata di entusiasmo per l'invenzione dei computer si credeva che avessimo finalmente gli strumenti con cui risolvere i problemi della mente, e che nel giro di pochi anni avremmo visto una nuova razza di macchine intelligenti. Oggi siamo più vecchi e più saggi. La prima scarica di entusiasmo è svanita, i computer che ci impressionavano così tanto, decenni fa, non ci impressionano più adesso, e ci stiamo sobriamente ambientando per capire quanto siano davvero difficili i problemi dell'IA.
Cos'è l'IA? In un certo senso è ingegneria ispirata alla biologia. Guardiamo gli animali, guardiamo gli umani e vogliamo essere in grado di costruire macchine che facciano quello che fanno loro. Vogliamo che le macchine siano in grado di apprendere nel modo in cui noi impariamo a parlare, a ragionare e infine ad avere coscienza. L'IA è quindi ingegneria ma, in questa fase, possiamo anche dire che sia scienza? Ad esempio una scienza cognitiva? Ci piacerebbe pensare che essa sia contemporaneamente ingegneria e scienza, ma dobbiamo ammettere che il contributo che è stato dato alle scienze cognitive dalla IA, finora, è forse più debole dei contributi che la biologia ha dato all'ingegneria.
L’errore di fondo è stato, probabilmente, nell’affrontare il tema intelligenza. E quello che è successo è che ciò che la gente considerava intelligenza era ciò che ci impressionava. I nostri coetanei sono impressionati se sappiamo gestire la matematica complessa, o giocare a scacchi. La capacità di camminare, al contrario, non impressiona nessuno. Non puoi dire ai tuoi amici "guarda, posso camminare", pensando di impressionarli, perché anche i tuoi amici possono camminare. Ma quello che è successo negli ultimi 40-50 anni - con disappunto di tutti coloro che hanno fatto previsioni su dove sarebbe andata l'IA - è che cose come giocare a scacchi si sono rivelate incredibilmente facili per i computer, mentre imparare a camminare si è rivelato incredibilmente difficile (v. ultimo paragrafo).
Si è rivelato poi molto difficile dotare le macchine di "buon senso", di emozioni e di quegli altri fattori intangibili che sembrano guidare un comportamento umano molto intelligente; e sembra che questi possano derivare più dalla nostra lunga storia di interazioni con il mondo e con altri umani che da ogni ragionamento astratto e deduzione logica. Tanto che oggi potremmo liquidare le macchine per giocare a scacchi, come Deep Blue, come "macchine senza cervello". La filosofia di base è quindi che abbiamo bisogno di una comprensione molto maggiore dei substrati animali del comportamento umano, prima di poter realizzare i sogni dell'IA nel replicare un'intelligenza umana convincente a tutto tondo.
In retrospettiva, una nuova visione che abbia senso, probabilmente, dovrebbe tener conto di quanto segue: ci sono voluti 3 miliardi di anni di evoluzione per produrre scimmie, e poi solo altri 2 milioni di anni circa per far apparire le lingue e tutte le cose che ci impressionano. Questa è forse un'indicazione che, una volta che hai la scimmia, una volta che hai l'Homo Erectus, tutte le abilità umane possono evolversi abbastanza rapidamente. Ma il problema quindi non è la produzione di altre scimmie intelligenti, bensì “la produzione della scimmia”. Di conseguenza, oggi, è in corso una rivoluzione nel campo che si chiama Vita Artificiale (AL) e Comportamento Adattivo, cercando di ricollocare l'IA nel contesto di una filosofia di base, che accetti il fatto che abbiamo bisogno di una comprensione molto maggiore dei substrati animali del comportamento umano prima di poter realizzare i sogni dell'IA nel replicare un'intelligenza umana, che sia convincente a tutto tondo.
Quindi l'IA non è morta, come alcuni pensano, ma si sta riorganizzando.
Si potrebbe dire che le applicazioni di IA che metto in appendice sono una IA “rozza”; si stanno infatti cominciando a fare distinguo tra comportamenti simili a quello umano (IA generale debole) e comportamenti uguali, o superiori a quelli del cervello umano (IA forte). Purtroppo non si è ancora trovato un modo ovvio per andare dall’una all’altra; cioè come arrivare all’intelligenza a livello umano partendo da robot piuttosto banali (chatbot e simili…) e dai fragili programmi software che abbiamo al giorno d'oggi. È necessaria, sembra, una lunga serie di scoperte concettuali, e questo tipo di pensiero è molto difficile da programmare. Quello che stanno cercando di fare per la prossima generazione è essenzialmente scoprire quali sono le domande giuste da porre.
Penso che le persone che sono preoccupate per i robot che conquistano il mondo dovrebbero andare a una conferenza sulla robotica e guardare questi aggeggi che cercano di camminare. Cadono, vanno a sbattere contro i muri e finiscono con le gambe che si dimenano o le ruote che girano in aria. Mi è stato detto che in una competizione di calcio robotico della scorsa estate, il giocatore della squadra perdente ha segnato tutti e cinque i gol: 2 contro la squadra avversaria, e 3 contro la propria.
APPENDICI
- LE PAURE GENERATE DALL’IA:
Dai robot infuriati nell'opera teatrale RUR del 1920 al computer omicida HAL in “2001 Odissea nello spazio”, gli scrittori di fantascienza hanno abbracciato il lato oscuro dell'intelligenza artificiale da quando il concetto è entrato nel nostro immaginario collettivo. I lenti progressi nella ricerca sull'intelligenza artificiale, specialmente durante l'"inverno dell'IA" degli anni '70 e '80, hanno fatto sembrare tali preoccupazioni inverosimili. Ma i recenti progressi nell'apprendimento automatico e gli ampi miglioramenti nella potenza di calcolo, hanno portato un'ondata di finanziamenti per la ricerca; ma anche nuove preoccupazioni su dove l'IA potrebbe portarci. (v. anche: “fermiamo i robot killer” (11).
C'è quindi un dibattito in corso circa come andranno le cose se l'IA dovesse minacciare gli umani. È probabile che risultati non intenzionali dovuti all'IA possano mettere a rischio la razza umana? E comunque ci potrebbero essere altri problemi, circa una IA non in grado di fare il suo lavoro mantenendosi entro i confini legali, ambientali ed etici. Se volete approfondire un po’ leggete la nota (9).
- APPLICAZIONI DELL’IA
L'intelligenza artificiale è diventata parte integrante di vari settori come la tecnologia dell'informazione, il marketing (4), la sanità, la sicurezza informatica, l’arte, militare, ecc. L'intelligenza artificiale utilizza algoritmi per risolvere un problema o eseguire un’operazione. Un algoritmo è un insieme di istruzioni che un computer può eseguire; e un sofisticato algoritmo è costruito su altri più semplici algoritmi. Gli algoritmi di IA sono in grado di imparare dai dati; e possono evolversi imparando nuove strategie che hanno funzionato bene in passato o possono scrivere nuovi algoritmi da soli.
Ci sono molti modi in cui l'intelligenza artificiale, insieme a quella dell'apprendimento automatico, viene già oggi utilizzata, magari indirettamente, cercando di leggere più e-mail, ottenere indicazioni stradali durante la guida, insieme a consigli su musica o film. Sta rendendo molto più facile per le persone comunicare e localizzare colleghi di lavoro e amici, migliorare il mondo dei social media eliminando “fake”, o aiutando a combattere contenuti razzisti o inappropriati. C'è anche l'intelligenza artificiale per migliorare le esperienze degli utenti: molti dati vengono elaborati attraverso reti neurali, per imparare ciò che gli utenti preferiscono in linea. Per approfondire un po’ questo tema, leggete la nota (10).
NOTE E RIFERIMENTI
- SINGOLARITA’: Nella futurologia, una singolarità tecnologica è un punto, congetturato nello sviluppo di una civiltà, in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani. La singolarità può, più specificamente, riferirsi all'avvento di un'intelligenza superiore a quella umana (anche artificiale), e ai progressi tecnologici che, a cascata, si presume seguirebbero da un tale evento, salvo che non intervenga un importante aumento artificiale delle facoltà intellettive di ciascun individuo. Se una singolarità possa mai avvenire, è materia di discussione.
- Test di Turing: Turing prende spunto da un gioco, chiamato "gioco dell'imitazione", a tre partecipanti: un uomo A, una donna B, e una terza persona C. Quest'ultima è tenuta separata dagli altri due e tramite una serie di domande deve stabilire qual è l'uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non possa disporre di alcun indizio (come l'analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse.
Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chi sia l'uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la macchina stessa dovrebbe essere considerata intelligente, dal momento che - in questa situazione - sarebbe indistinguibile da un essere umano.
- In informatica , lo pseudocodice è una descrizione in linguaggio semplice dei passaggi di un algoritmo o di un altro sistema. Lo pseudocodice usa spesso le convenzioni strutturali di un normale linguaggio di programmazione, ma è destinato alla lettura umana piuttosto che alla lettura automatica
- https://www.researchgate.net/publication/303621107_Assessing_Performance_Outcomes_in_Marketing
- Il transumanesimo (o transumanismo, a volte abbreviato con >H o H+ o H-plus) è un movimento culturale che sostiene l'uso delle scoperte scientifiche e tecnologiche per aumentare le capacità fisiche e cognitive e migliorare quegli aspetti della condizione umana che sono considerati indesiderabili, come la malattia e l'invecchiamento, in vista anche di una possibile trasformazione post umana.
- https://computing.dcu.ie/~humphrys/philosophy.html#practice
- La terza edizione è così composta:
Parte I: Intelligenza Artificiale: pone le basi per le sezioni seguenti visualizzando i sistemi di intelligenza artificiale come agenti intelligenti in grado di decidere quali azioni intraprendere e quando eseguirle.
Parte II: Risoluzione dei problemi - Si concentra sui metodi per decidere quale azione intraprendere quando è necessario pensare a diversi passi susseguenti; come in una partita di scacchi.
Parte III: Conoscenza e ragionamento - Discute i modi per rappresentare la conoscenza sull'ambiente degli agenti intelligenti e come ragionare logicamente con tale conoscenza.
Parte IV: Conoscenza incerta e ragionamento - Questa sezione è analoga alla Parte III, ma si occupa del ragionamento e del processo decisionale in presenza di incertezza nell'ambiente della conoscenza.
Parte V: Apprendimento - Descrive le modalità per generare la conoscenza richiesta dalle componenti decisionali e introduce una nuova componente: la rete neurale artificiale
Parte VI: Comunicare, percepire e agire - Si concentra sui modi con cui un agente intelligente può percepire il proprio ambiente sia attraverso il tatto che la vista.
Parte VII: Conclusioni - Considera il passato e il futuro dell'IA discutendo che cosa sia veramente l'IA e perché ha avuto successo in una certa misura. Discute anche le opinioni di quei filosofi che credono che l'IA non potrà mia avere successo.
LA QUARTA EDIZIONE di questo libro si concentra maggiormente su machine learning, deep learning, programmazione probabilistica, sistemi multiagente e include sezioni in cui la funzione di utilità dell'IA è incerta.
I programmi informatici presentati nel libro sono presentati in pseudocodice con implementazioni in Java , Python e Lisp disponibili online. Esistono anche implementazioni non supportate in Prolog , C++ , C# e molti altri linguaggi.
- Per nanobot o nanorobot si intende un qualsiasi sistema capace di compiere modifiche all'ambiente circostante, in maniera controllata e prevedibile, avente dimensioni assimilabili a quelle molecolari o addirittura atomiche. I nanorobot sono dei dispositivi la cui grandezza varia, tipicamente, da 0,1 a 10 micrometri, essendo costituiti da componenti molecolari il cui ordine di grandezza ricade nelle nanoscale. la medicina è il campo di applicazione principe delle ricerche in materia di nanorobotica. Quella medicina che, con il ricorso ai nanodispositivi e alle nanotecnologie, diviene lei stessa “nano”. Negli Stati Uniti, ad esempio, di nanomedicina si parla già dagli inizi degli anni ’90, con – in particolare – l’utilizzo di nanoparticelle per la somministrazione farmacologica di precisione (drug delivery), nonché nell’ambito di alcuni processi diagnostici. Ma è con l’avvento della nanorobotica, che gli studi in questa direzione hanno fatto ulteriori passi avanti. Anche se le sfide sono tante. A cominciare dalla gestione del movimento ordinato e controllabile dei nanobot all’interno di un microambiente prevalentemente liquido come quello del corpo umano.
- I RISCHI DELL’IA. La paura di base è il rendersi conto che l’IA ha due obbiettivi: quello proprio, dell’efficienza del suo lavoro, e quello di produrre beneficio all'umanità; tuttavia, IA potrebbe andare fuori controllo e raggiungere primariamente gli obiettivi desiderati in modo efficiente, ma distruttivo, impattando così, negativamente, sulla società. Uno degli esempi è dato dalla privacy e dai dati personali che alimentano gli algoritmi dell'IA. Quando, ad esempio, è possibile raccogliere dati su una persona ogni minuto della giornata, la sua privacy può essere compromessa. Se i governi e le imprese decidono che condurranno azioni basate sull'intelligence che hanno raccolto su qualche individuo, come fa la Cina, che ha creato un suo sistema di credito sociale, ciò può facilmente trasformarsi in oppressione sociale.
Rischi della IA a breve termine
Alcune preoccupazioni a breve termine riguardano i veicoli autonomi, i droni civili e le auto a guida autonoma. Ad esempio, un'auto a guida autonoma potrebbe, in caso di emergenza, dover decidere tra un piccolo rischio di incidente grave e una grande probabilità di un piccolo incidente. Altre preoccupazioni riguardano armi autonome intelligenti letali: dovrebbero essere bandite? Se sì, come dovrebbe essere definita con precisione l'"autonomia"? In caso negativo, come dovrebbe essere ripartita la responsabilità per qualsiasi uso improprio o malfunzionamento?
Altri problemi includono il come gestire al meglio l'impatto economico dei posti di lavoro persi dagli esseri umani.
Rischi della IA a lungo termine
Secondo il direttore della ricerca Microsoft Eric Horvitz, un giorno potremmo perdere il controllo dei sistemi di intelligenza artificiale a causa dell’ascesa di superintelligenze che non agiscono secondo i desideri umani, e che sistemi così potenti minaccerebbero l'umanità. Sono possibili tali esiti distopici? Se sì, come potrebbero presentarsi queste situazioni? Che tipo di investimenti nella ricerca dovrebbero essere fatti per comprendere e affrontare meglio la possibilità del sorgere di una pericolosa superintelligenza o il verificarsi di una "esplosione di intelligenze"? Gli strumenti esistenti per sfruttare l'IA senza pericoli, appare siano inadeguati per risolvere questi problemi; pertanto sono necessarie ulteriori ricerche per trovare e convalidare una soluzione solida al "problema del controllo".
(10) LE APPLICAZIONI ATTUALI DELL’IA. Il deep learning di Facebook ha aiutato la piattaforma a trarre il suo valore da quello di gran parte dei dati non strutturati creati da circa due miliardi di persone. La maggior parte della tecnologia del deep learning è stata costruita sul framework di Torch, che si concentra su tecniche di deep learning e su quella delle reti neurali.
I chatbot sono impiegati per riconoscere frasi e parole in modo che possano, si spera, fornire contenuti utili ai consumatori nel caso di domande comuni. A volte, i chatbot sono talmente accurati da far sembrare che si stia parlando con un persona dal vivo. Ad esempio, i chatbot potrebbero essere predisposti a pianificare appuntamenti con un parrucchiere.
Gli assistenti digitali aiutano a rendere la vita più confortevole; e qui abbiamo gli esempi di Google Now, Siri di Apple, Microsoft Cortana e Alexa di Amazon, che possono aiutare un utente a eseguire attività multiple come controllare la pianificazione e le ricerche sul Web. L'IA è essenziale per migliorare le prestazioni di queste app poiché possono imparare da un singolo utente e dalla loro interazione.
Il parcheggio autonomo insieme alle auto a guida autonoma può utilizzare il deep learning, che è uno dei sottoinsiemi dell'IA, per essere in grado di rilevare quanto spazio c'è intorno a un veicolo. Nvidia, società tecnologica, ha utilizzato l'intelligenza artificiale per dare alle auto la capacità di imparare, pensare e vedere insieme alla navigazione, i vari scenari di guida. Tecnologie basate sull'intelligenza artificiale vengono già utilizzate all'interno di auto prodotte da Tesla, Volvo, Audi, Mercedes Benz, Toyota, ecc.
Gli utenti di Gmail hanno la possibilità di utilizzare “risposte intelligenti” per rispondere alle loro e-mail molto più rapidamente e con l'aiuto di semplici frasi. Già oggi Google utilizza filtri per garantire che quasi tutte le e-mail che raggiungono la propria casella di posta siano non spam o autentiche. I filtri e-mail ordinano le e-mail in categorie come Principale, Social, Promozioni, Aggiornamenti, Forum e Spam.
Quando qualcuno inizia a digitare un termine che deve essere esplorato su Google, la piattaforma fornisce consigli appropriati su cosa scegliere; una ricerca predittiva, poi, basata sui dati che Google ha raccolto dall’utente, come la sua età, posizione e altri dati personali, tenterà poi di indovinare cosa potrebbero cercare. I motori di ricerca di Google si sono evoluti studiando la linguistica.
I rivenditori online come Amazon utilizzano l'intelligenza artificiale per raccogliere informazioni sulle abitudini e le preferenze di acquisto delle persone. I siti web personalizzano ulteriormente l'esperienza di acquisto dando suggerimenti circa nuovi prodotti scelti in base alle abitudini dell'utente.
I servizi di musica utilizzano l'intelligenza artificiale per essere in grado di tracciare i modelli di ascolto. Quindi, possono usare queste informazioni per suggerire altre canzoni. Ad esempio, l'applicazione Spotify offre suggerimenti di elenchi di canzoni per nuove uscite e vecchi preferiti in base alle abitudini di ascolto. I suggerimenti alimentati dall'IA tengono conto di fattori come l'ora del giorno e il tempo per offrire playlist musicali, che possono creare l'atmosfera. Potrebbe essere fornita una playlist di musica dance nella sera del venerdì o musica soft e acustica quando piove.
Ci sono anche applicazioni come quella di Google Maps che possono individuare i lavori in corso e il traffico, in modo da indicare un modo rapido per raggiungere le destinazioni.
Secondo un rapporto di Wired, Boeing sta lavorando alla costruzione di aerei che saranno pilotati interamente dall'intelligenza artificiale, senza piloti umani.
Con l'evoluzione di migliori capacità diagnostiche e di monitoraggio, l'IA può essere efficace sull'assistenza sanitaria. Con il miglioramento delle strutture sanitarie e delle sue operazioni con l'evoluzione di organizzazioni mediche, l'intelligenza artificiale può ridurre i costi dei servizi. McKinsey poi ha previsto che i big data possono poi far produrre farmaci e prodotti farmaceutici con un incremento di circa 100 miliardi di dollari per anno. Ma l'impatto più significativo del settore medico può essere nel caso della struttura di cura del paziente; mediante, ad esempio, la personalizzazione dei piani di cura, e della gestione di protocolli farmacologici.
I mezzi per portare alla luce attività criminali, insieme alla risoluzione dei crimini stessi, possono essere potenziati con IA. La tecnologia per il riconoscimento facciale è già oggi, in molti stati, più comune dell’uso delle impronte digitali.
L'IA ha già contribuito a scoperte nei campi di studio della fisica quantistica e della medicina genetica. Nella fisica quantistica, l’IA è stata utilizzata per prevedere e disegnare i modelli comportamentali di sistemi costituiti da miliardi di particelle subatomiche. In medicina genetica, l'IA viene utilizzata per la diagnosi del paziente basata sui dati genomici.
Nella produzione, è utilizzata per gestire processi di produzione e manutenzione per prevedere i guasti prima che si verifichi l’evento, consentendo così una manutenzione predittiva.
Detto ciò; l'intelligenza artificiale sta facendo anche evolvere la forza lavoro; con il reale rischio della perdita di posti di lavoro. Questo rischio può condurre a implicazioni normative, politiche, legali ed economiche di vasta portata che è necessario discutere e preparare.
- FERMIAMO I ROBOT KILLER. https://en.wikipedia.org/wiki/Campaign_to_Stop_Killer_Robots
- La filosofia dell'IA è una storia di "grandi nomi". Eccone alcuni:
- Turing
- Dreyfus
- Hubert Dreyfus's views on artificial intelligence. His books, What Computers Can't Do (1972) and What Computers Still Can't Do (1992).
- Searle
- His thought experiment The Chinese Room (1980).
- Godel, Lucas, Penrose: AI is impossible because of Godel's theorem (1931) on the limits of logical systems.
- Penrose
- The Emperor's New Mind (1989)
- Shadows of the Mind (1994)
- Summary: The brain works by exploiting quantum physical effects.
- Edelman
- Neural Darwinism (1987)
- Rosen
- His book Life Itself (1991).
- Brooks
- Many papers. e.g. Intelligence without Reason (1991).
- Moravec
- His book Mind Children (1988).Summary: AI is coming, and humans will go extinct. And that won't be necessarily bad.
- Weizenbaum
- Eliza program (1966)
- His book Computer Power and Human Reason (1976).
- Stuart Russell
- His book Human Compatible (2019).
- Russell is involved with the movement to ban the manufacture of autonomous (decision-making) weapons.
- “Large scale analysis of neural structure” Ralph C. Merkle , Senior Research Fellow, Institute for Molecular Manufacturing Email: merkle@merkle.com, www.merkle.com. Co-founder, Nanofactory Collaboration