In questo sito utilizziamo dei cookies per rendere la navigazione più piacevole per i nostri clienti.
Cliccando sul link "Informazioni" qui di fianco, puoi trovare le informazioni per disattivare l' installazione dei cookies,ma in tal caso il sito potrebbe non funzionare correttamente.Informazioni
Continuando a navigare in questo sito acconsenti alla nostra Policy. [OK]
Aggiornato al 16/12/2017

Harald Ritsch (Vienna, Contemporary) - Human Spirit and Science

 

Intelligenza Artificiale e Psicologia

 

di Francesco Lacapra

 

Ho letto di recente un libro fenomenale scritto dallo psicologo e premio Nobel per l’economia Daniel Kahneman: “Thinking fast and slow”. È un libro di cui consiglio la lettura.

Il motivo per il quale ho trovato il libro affascinante è che appare perfettamente capace di spiegare tanto di quello che facciamo tutti i giorni, e persino meccanismi dai quali talora siamo intrappolati e che si manifestano in quello che oggi definiamo come dissonanza cognitiva e accettazione di “fake news”.

Il concetto di base proposto dall’autore è che il nostro cervello opera come se fosse costituito da due sistemi indipendenti. Quello che Kahneman chiama “Sistema 1” è preposto alle reazioni istintive, mentre il “Sistema 2” è impiegato per analisi più ragionate. Il primo opera immediatamente sulla base di schemi ai quali è avvezzo. Il secondo viene attivato dal primo solo quando appaiono situazioni difficili da valutare o contraddittorie. Mentre il primo opera senza sforzo, il secondo coinvolge attività cerebrali complesse che implicano il consumo di risorse energetiche (zuccheri) e che il secondo sistema tenta di evitare.

Ne risulta che talora, per “pigrizia”, il sistema 2 rimane inattivo e ci si abbandona a scelte emotive o basate su pregiudizi, piuttosto che spingere la parte più razionale e analitica a eseguire il suo dispendioso lavoro.

Poche settimane prima, partecipando alle celebrazioni del cinquantesimo anniversario del premio Turing dell’ACM[1], premio considerato il Nobel dell’Informatica, avevo avuto modo di assistere a un dibattito di luminari in materia di Deep Learning[2], che oggi è alla base della rinascita dell’Intelligenza Artificiale e che, a dire di molti, dovrebbe rapidamente portare a veicoli a guida completamente autonoma e ad altre meraviglie del genere. Personalmente sono scettico sul fatto che questo possa avvenire a breve termine. Al di là della (in)capacità di una macchina di riuscire a dirimere problemi di natura etica[3], esistono anche altre difficoltà tecniche di difficile soluzione.

Il parere quasi unanime dei partecipanti al dibattito (professori di Berkeley, Stanford, UCLA e Toronto, oltre a rappresentanti dell’industria) è stato che le tecniche attualmente usate e sulle quali si sta lavorando hanno raggiunto livelli di progresso quasi impensabili, ma che al contempo è difficile immaginare che possano realmente portare a salti qualitativi. Le ragioni addotte sono che:

  • Il Deep Learning è basato su reti neurali che generano azioni o risultati euristici sulla base di correlazioni statistiche con i dati in ingresso. Questa correlazione non comporta un processo di deduzione che possa rapportare causa a effetto. In questo modo, il risultato per dati appena diversi da quelli usati in fase di addestramento delle reti neurali non può essere previsto a priori e quindi è tutt’altro che inverosimile che le azioni generate non siano in accordo con quanto ci si aspetta.
  • Con l’aumento della complessità delle situazioni da gestire, la quantità di risorse hardware necessarie per elaborazioni di questo tipo va crescendo a un ritmo talmente rapido da diventare non più perseguibile, persino con sistemi su larga scala e ad alto parallelismo.

La lettura del libro di cui sopra mi ha riportato in mente queste conclusioni e mi ha fatto pensare che da un certo punto di vista è quasi come se il Deep Learning potesse esercitare una funzione analoga al Sistema 1 della nostra mente. Tuttavia, manca il Sistema 2.

Vero è che fino ad oggi abbiamo sempre utilizzato i computer come un Sistema 2, nel senso che queste macchine hanno sempre effettuato elaborazioni algoritmiche fondate sulla razionalizzazione dei problemi da risolvere (bachi permettendo).

Di conseguenza, se attraverso il Deep Learning riusciamo a realizzare l’equivalente di un Sistema 1 e il Sistema 2 non è altro che il modo in cui fino ad oggi abbiamo utilizzato i computer, forse potremmo riuscire ad emulare il comportamento del cervello umano. O no?

Io penso di no. Se anche il Sistema 1 computerizzato fosse in grado di chiedere al suo Sistema 2 di prendere il controllo, mancherebbe completamente la possibilità di dire al Sistema 2 come procedere in modo analitico per risolvere il problema. Né è pensabile che il Sistema 2 possa già essere in possesso di tutti gli algoritmi possibili e immaginabili e della capacità di decidere quali usare. In altri termini, a fronte di un potenziale conflitto riscontrato dal Sistema 1, il Sistema 2 non avrebbe un algoritmo da seguire per correggere l’azione o il giudizio iniziale.

Personalmente, al di là del grande ottimismo di alcuni, penso che siamo ancora lontani dalla Singolarità[4], che taluni vedono approssimarsi.

Da questo punto di vista, la mia interpretazione degli allarmi nei confronti dell’Intelligenza Artificiale lanciati da grandi personalità quali Stephen Hawking e Elon Musk[5] è che i rischi reali esistono, ma quelli che vedo io sono più legati a un utilizzo di Deep Learning doloso o non corroborato da buon senso (non vedo come inverosimile il caso di un drone che attacca degli umani per sbaglio), piuttosto che di automi che decidano che è arrivato il momento di sbarazzarsi delle inferiori entità biologiche che li hanno creati.

Per concludere, concordo pienamente con quanto afferma David Parnas (uno dei grandi del Software Engineering) che in un recente articolo[6] ha spiegato che il domandarsi se una macchina pensa è una domanda priva di senso e che algoritmi verificabili sono preferibili a procedure euristiche, perché creare l’illusione di intelligenza presenta rischi che non dovremmo comunque accettare.

 

[1] Association for Computing Machinery.

[3] Ad esempio, l’ormai famoso problema del veicolo che deve decidere quale manovra effettuare, sapendo che l’esito potrà solo essere quello di uccidere il passeggero o un incauto passante.

[4] Cioè il momento in cui le macchine supereranno l’intelligenza umana (https://futurism.com/kurzweil-claims-that-the-singularity-will-happen-by-2045/).

[5] https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence

[6] https://cacm.acm.org/magazines/2017/10/221330-the-real-risks-of-artificial-intelligence/fulltext

Scarica l'articolo in PDFgenera pdf
Inserito il:30/09/2017 16:30:32
Ultimo aggiornamento:30/09/2017 16:38:22
Condividi su
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)
nel futuro, web magazine di informazione e cultura nel futuro, archivio
Questo sito utilizza cookies.Informazioni e privacy policy
yost.technology