In questo sito utilizziamo dei cookies per rendere la navigazione più piacevole per i nostri clienti.
Cliccando sul link "Informazioni" qui di fianco, puoi trovare le informazioni per disattivare l' installazione dei cookies,ma in tal caso il sito potrebbe non funzionare correttamente.Informazioni
Continuando a navigare in questo sito acconsenti alla nostra Policy. [OK]
Aggiornato al 06/12/2019

È molto più bello sapere qualcosa di tutto, che tutto di una cosa; questa universalità è la cosa più bella.

Blaise Pascal

Kume Bryant (Contemporary, Tucson, Arizona) - Artificial Intelligence – 2013

 

Filosofia dell'Intelligenza Artificiale

di Vincenzo Rampolla

 

Il filosofo fa sul serio e non ha mezzi termini. È questione di metodo e parte dalle domande:

• Può una macchina agire in modo intelligente? Può risolvere tutti i problemi che chiunque altro

risolverebbe pensando?

• L'intelligenza umana e l'intelligenza artificiale sono uguali? Il cervello umano è un computer?

• Una macchina può avere una mente, uno stato mentale e una coscienza simile a quella umana?

Può avere coscienza di se stessa in quanto oggetto del pensare?

Domande che riflettono le posizioni divergenti rispettivamente dei ricercatori, degli scienziati e dei filosofi dell’Intelligenza artificiale (AI). Come rispondere? Tutto è legato alle definizioni date a intelligenza, coscienza e macchina. Da lì si parte e ognuno dice la sua e si è obbligati a procedere secondo il metodo e studiare i test, le proposizioni, le ipotesi e i meccanismi nella filosofia dell'AI, e rispolverare i documenti degli attori del passato e consultare quelli di oggi. Ecco le loro posizioni.

  • Il Test di Turing: Se una macchina si comporta in modo intelligente come un essere umano, allora è intelligente come un essere umano.
  • La proposta di Dartmouth: Ogni caratteristica dell'intelligenza o aspetto dell'apprendimento si può definire con precisione tale da potere creare un automatismo per simularla.
  • L'ipotesi del sistema di simboli fisici di Newell e Simon: Un sistema di simboli fisici ha i mezzi necessari e sufficienti per produrre un’attività intelligente completa.
  • L’ipotesi di Searle: Un computer opportunamente programmato, con entrate e uscite adeguate è una mente esattamente uguale a quella dell’essere umano.
  • Il Meccanismo di Hobbes: La ragione non è altro che il calcolo (ovvero l'addizione e la sottrazione) delle sequenze di nomi con cui si è convenuto indicare e esprimere i nostri pensieri.

 

Test di Turing. Alan Turing, nel suo storico articolo del 1950 Computing Machinery and Intelligence, riduce il problema di definire l'intelligenza a una semplice questione di dialogo. Suggerisce che se una macchina può rispondere a tutte le domande e con le stesse parole di una persona normale, allora può essere chiamata macchina intelligente. Una versione moderna del suo test userebbe una chat room, in cui uno dei partecipanti è una persona in carne e ossa e l’altro è un programma di computer. Si passa il test se nessuno sa dire quale dei due partecipanti sia un essere umano.

Turing aggiunge: Se una macchina si comporta in modo intelligente come un essere umano, allora è intelligente come un essere umano e se l’obiettivo è creare macchine più intelligenti dell’uomo, perché insistere sul fatto che le macchine dovrebbero essere come le persone? B.Russell, Nobel e filosofo matematico, dice che lo scopo dei test di ingegneria aeronautica non è di produrre macchine che volino esattamente come i piccioni e che possano ingannare altri piccioni.

 

Conferenza di Darmouth. È possibile creare una macchina in grado di risolvere tutti i problemi che gli umani risolvono usando la loro intelligenza? La domanda definisce la portata di ciò che le macchine saranno in grado di fare in futuro e indica la direzione della ricerca sull'AI. Il fatto che una macchina possa pensare come pensa una persona, non è rilevante.

La posizione di base della maggior parte dei ricercatori può essere riassunta nelle parole di Mc Carthy creatore dell’AI nella Conferenza di Dartmouth del 1955: Ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza può essere dettagliato con una precisione così elevata da potere costruire una macchina capace di simularli.

Non tutti sono d’accordo e gli argomenti contrari a tale principio di base devono anzitutto dimostrare che la costruzione di un sistema di AI è impossibile, perché esiste un limite pratico alle capacità dei computer e perché esistono specifiche qualità della mente umana che non possono essere duplicate da una macchina o dagli attuali metodi di ricerca nell'AI. Per gli argomenti a favore di questo principio di base, si deve dimostrare la fattibilità di tale sistema. Il primo passo per rispondere alla domanda è dare una chiara definizione di intelligenza.

 

Nel 1963, A.Newell e H.A. Simon proposero che la manipolazione dei simboli fosse l'essenza dell'intelligenza umana e artificiale. Hanno scritto: Un sistema di simboli fisici ha i mezzi necessari e sufficienti per l'azione intelligente completa. Ciò implica che il pensiero umano sia una sorta di operatore dei simboli, essendo questi necessari per l'intelligenza, e che le macchine possano essere intelligenti, essendo sempre questi sufficienti per l'intelligenza. Le prime ricerche sull'AI si sono concentrate su simboli di alto livello e hanno dimostrato che il pensiero umano non consiste solo nella manipolazione di simboli di alto livello e non mostra che l’AI sia impossibile, ma che richiede anche la loro elaborazione.

Nel 1931, K.Gödel dimostrò con il suo teorema di incompletezza che è sempre possibile costruire una proposta di Gödel in un dato sistema logico formale (come un programma di manipolazione di simboli di alto livello) e che questo non si possa dimostrare. Nel sistema dato la proposta di Gödel è indimostrabile nonostante sia una proposta vera. E non basta. La mente umana può determinare correttamente la verità o la falsità di ogni affermazione matematica, non essendo ridotta a un meccanismo.

H.Dreyfus sosteneva che l'intelligenza e l'esperienza umana dipendevano principalmente dagli istinti inconsci piuttosto che dalla manipolazione simbolica consapevole e sostenevano che queste abilità inconsce non avrebbero mai fatto parte delle regole formali.

L'argomentazione di Dreyfus era stata anticipata da Turing che sosteneva che: Se non conosciamo le regole che governano il comportamento complesso, ciò non significa che non esistano. Non possiamo convincerci dell'assenza di leggi complete di comportamento ... L'unico modo per trovare tali leggi è l'osservazione scientifica. Turing lo scriveva 70 anni fa e Galileo l’aveva predicato tre secoli prima.

 

Una domanda ruota intorno a una posizione definita da J. Searle come AI forte: Un sistema di simboli fisici può avere uno spirito e uno stato mentale? Searle distingue questa posizione da quella che chiama AI debole: Un sistema di simboli fisici può agire in modo intelligente? Searle ha definito i termini per distinguere l’AI forte dall'AI debole e sostiene che se anche avessimo un programma di computer che agisse esattamente come la mente umana, ci sarebbe comunque una domanda filosofica dalla risposta difficile (a meno che non si dimostri che la coscienza è necessaria per l'intelligenza): Le macchine possono pensare?

Russell concorda sul fatto che la maggior parte dei ricercatori di AI prende per scontata l'assunzione di AI e non si preoccupa dell’ipotesi forte.

Alcuni studiosi credono che la coscienza sia un elemento essenziale per l’intelligenza, anche se la loro definizione di coscienza è molto vicino all’intelligenza. Per potere rispondere alla domanda, bisogna definire mente, stati mentali e coscienza e le parole spirito e coscienza sono le più controverse.

Per altri la coscienza descrive una proprietà chiave che ci rende umani, per altri ancora spirito e coscienza sono sinonimo di anima.

Filosofi e neuroscienziati dicono infine che le parole si riferiscono al vivere di ogni giorno per mettere un pensiero in testa, come una percezione, un sogno, un'intenzione, un piano o per dire qualcosa, capire qualcosa. I filosofi lo chiamano il difficile problema della coscienza, versione odierna di un classico problema filosofico, il problema mente-corpo. Ad esso è collegato il problema del significato o della comprensione: qual è la connessione tra i nostri pensieri e ciò che pensiamo? Un ultimo problema è l'esperienza (la fenomenologia):

Due persone che vedono la stessa cosa, hanno la stessa esperienza? Nelle loro teste ci sono cose che possono essere diverse da una persona all'altra? I neurobiologi le chiamano qualia e pensano che questi problemi saranno risolti quando verrà identificato l'effettivo rapporto tra la rete neuronale e le proprietà collettive come spirito, esperienza e comprensione.

Alcuni dei più severi critici dell’AI concordano sul fatto che il cervello sia solo una macchina e che la coscienza e l'intelligenza siano il risultato di processi fisici del cervello. Resta aperta la grande questione filosofica :

Un programma di computer attraverso la combinazione di cifre binarie 0 e 1, può trasmettere ai neuroni la capacità di dare vita a stati mentali come la cognizione o la percezione e riprodurre in definitiva l'esperienza della coscienza?

 

La teoria computazionale della mente o computazionalismo afferma che la relazione tra mente e cervello è simile, se non identica, alla relazione tra un programma in corso di esecuzione e un computer. Questa idea trae radici filosofiche da Hobbes, Leibniz, Hume e Kant.

L'ultima versione della teoria è condivisa dai filosofi H.Putnam e J.Fodor: Se il cervello umano è un tipo di computer, possono i computer essere intelligenti e consapevoli, rispondendo alle domande sull’AI pratica e su quella filosofica? e per quanto riguarda la questione pratica dell'AI: Può una macchina mostrare una intelligenza completa, generale, nel senso più esteso del termine?

Alcune correnti della teoria sostengono che il ragionamento è pura autostima e che l’intelligenza risulta da un calcolo di tipo aritmetico; per la maggioranza gli stati mentali sono semplici risultati di programmi digitali.

 

A.Turing osserva che restano molti argomenti da definire: essere gentile, intraprendente, essere bello, amichevole, consapevole di se stesso, originale o creativo, avere emozioni, mostrare iniziativa, avere senso dell'umorismo, commettere errori, gustare un dolce, innamorarsi, far innamorare, imparare, usare correttamente le parole, essere l’oggetto del proprio pensiero, fare qualcosa di veramente nuovo.

Sono argomenti basati spesso su supposizioni ingenue e sono forme mascherate dell'argomento della coscienza. Se le emozioni sono definite unicamente dal loro effetto sul comportamento o su come funzionano all'interno di un organismo, allora possono essere pensate come un meccanismo che usa un agente intelligente per massimizzare l’interesse derivato dalle proprie azioni.

La paura genera rapidità, l'empatia è invece la componente essenziale di una interazione uomo-macchina positiva. Le emozioni tuttavia possono essere definite in base alla loro qualità soggettiva e alla sensazione.

La domanda se la macchina provi davvero un'emozione, se agisca come se provasse un'emozione, ci riporta alla domanda filosofica: Può una macchina essere consapevole? Turing condensa tutte le altre proprietà degli esseri umani nella domanda: Una macchina può essere il soggetto del proprio pensiero? Può pensare a sé stessa?

È ovvio che un programma possa spiegare i suoi stati interni e sia indotto a chiedersi: Può una macchina prendermi di sorpresa? Turing sostiene che sia possibile. Egli osserva che, con una capacità di memoria sufficiente, un computer può comportarsi in un numero astronomico di modi diversi. Alcuni hanno addirittura lanciato l’idea di un'AI profondamente umana.

Alla fine, coloro che credono nell'esistenza di un'anima possono sostenere che il pensiero sia una funzione dell'anima immortale dell'uomo. Turing l'ha definita l'obiezione teologica.

 

Inserito il:15/03/2019 19:28:34
Ultimo aggiornamento:15/03/2019 19:38:07
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)
Questo sito utilizza cookies.Informazioni e privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology