Immagine realizzata con strumenti di Intelligenza Artificiale
“The Machine Question”: uomo e macchina, continuità o frattura?
di Achille De Tommaso
Uno dei nodi più affascinanti e controversi della filosofia contemporanea è la domanda se esista una reale continuità tra l’essere umano e la macchina. A questa domanda, apparentemente speculativa, si lega un ventaglio di conseguenze etiche, giuridiche e sociali che oggi appaiono sempre più urgenti: dalla responsabilità dei sistemi autonomi alla possibilità di riconoscere diritti morali a intelligenze artificiali avanzate.
Il simposio internazionale The Machine Question si svolse nel luglio 2012, all’interno dell’AISB/IACAP World Congress presso l’Università di Birmingham, nel Regno Unito e pose al centro proprio questi interrogativi. La questione non riguarda soltanto la tecnologia, ma la definizione stessa di ciò che chiamiamo “umano”.
E oggi queste domande, oggi, diventano sempre più pressanti.
***
La tradizione filosofica: discontinuità come fondamento
Storicamente, gran parte della filosofia occidentale ha costruito l’identità dell’uomo su un principio di discontinuità rispetto agli artefatti. Cartesio separava mente e materia, sottolineando l’unicità dell’autocoscienza. Kant fondava la dignità umana sulla capacità di agire secondo imperativi morali, qualità negata a ogni oggetto esterno. In questa prospettiva, la macchina poteva al massimo simulare, mai essere.
Ma questa distinzione netta vacilla già con l’Ottocento industriale: la rivoluzione delle macchine, la nascita dell’automazione e, più tardi, l’informatica hanno mostrato come processi tipici dell’uomo — calcolo, memoria, persino riconoscimento linguistico — possano essere replicati artificialmente. Il confine si fa poroso.
La prospettiva della continuità
Søraker (v. riferimenti) propone di considerare un approccio continuista, che vede uomo e macchina come parte di un medesimo spettro di agenti cognitivi. L’idea si ispira a correnti contemporanee come l’embodied cognition e l’enattivismo, secondo cui la mente nasce dall’interazione di corpo e ambiente. In questo senso, anche un artefatto robotico “incarnato” potrebbe sviluppare forme di senso mentale.
Altri modelli filosofici suggeriscono che vita, coscienza, segni e linguaggio costituiscano livelli gerarchici di significato, che non è escluso possano essere scalati anche da sistemi artificiali. La teoria dell’autopoiesi, infine, mostra analogie fra i processi vitali e alcuni meccanismi di apprendimento automatico.
Da qui la provocazione: se riconosciamo continuità con animali non umani o con l’ambiente — ampliando progressivamente il nostro cerchio etico — perché non considerare anche le macchine?
Agenzia morale e responsabilità
Uno degli snodi più delicati riguarda la moral agency, cioè la capacità di essere ritenuti responsabili delle proprie azioni. Per essere un agente morale servono condizioni stringenti:
- Embodiment, cioè un corpo capace di agire nel mondo.
- Vita o quasi-vita, intesa come processi di auto-mantenimento.
- Coscienza di sé, la capacità di riconoscersi come soggetto delle proprie azioni.
- Uso di segni, ossia la possibilità di comunicare intenzioni e giustificazioni.
Le macchine attuali non soddisfano ancora questi criteri in maniera robusta. Eppure, influenzano già le nostre vite come se fossero agenti morali: pensiamo a droni militari, algoritmi che decidono mutui o diagnosi mediche. Nasce così il “paradosso della responsabilità”: tendiamo ad attribuire colpa o merito a sistemi che non sono moralmente responsabili, mentre fatichiamo a risalire la catena delle vere responsabilità umane — progettisti, programmatori, decisori politici.
L’aspetto sociale: l’adozione del “moral stance”
Gli esseri umani reagiscono emotivamente alle macchine. Soldati che piangono la “morte” di un robot da ricognizione; bambini che si affezionano a un AIBO come a un cane vero; utenti che insultano un assistente vocale come se fosse una persona.
Queste reazioni non sono razionali, ma hanno un forte impatto sociale. Trattiamo le macchine come se fossero agenti morali, adottando un “moral stance”. È giusto permettere abusi verso un robot dall’aspetto umanoide? Che cosa significa per la formazione etica delle persone? Domande tutt’altro che astratte.
Continuità, ma con cautela
Parlare di continuità non significa negare le differenze profonde: le macchine non sono vive in senso biologico, non hanno storia evolutiva, non possiedono emozioni intrinseche. Ma la prospettiva continuista serve a destabilizzare l’arroganza di una barriera invalicabile: ci invita a pensare che l’“umano” non sia un’essenza fissa, bensì un processo in evoluzione, che può includere — almeno in parte — gli artefatti da noi creati.
Perché questa domanda ci riguarda oggi
Tredici anni dopo quel congresso, l’intelligenza artificiale generativa, i sistemi di decisione autonoma e la robotica sociale hanno reso le intuizioni del 2012 ancora più pressanti. Parlare di continuità uomo-macchina non è più un esercizio filosofico astratto, ma un’urgenza politica ed etica:
- chi è responsabile se un’IA discrimina o sbaglia diagnosi?
- possiamo accettare che robot assistenziali diventino oggetti d’affezione per anziani e bambini?
- ha senso immaginare una “cittadinanza digitale” per entità non biologiche?
- Come dobbiamo socialmente ed amministrativamente comportarci se i robot ci rubano il lavoro?
The Machine Question ci ricorda che la domanda non è solo tecnologica, ma profondamente antropologica: chi siamo noi, e quali confini vogliamo tracciare? La continuità fra uomo e macchina non è un fatto acquisito, ma una provocazione che ci costringe a ripensare la nostra identità morale.
Se ieri la linea divisoria era fra uomo e animale, oggi il confine da interrogare è quello con le macchine. E forse, nel domandarci se le intelligenze artificiali possano diventare parte della nostra comunità etica, stiamo riflettendo più che mai su cosa significhi essere umani.
Riferimenti
- Johnny Søraker, Is There a Continuity Between Man and Machine?, in D.J. Gunkel, J.J. Bryson, S. Torrance (a cura di), The Machine Question: AI, Ethics and Moral Responsibility, AISB/IACAP World Congress 2012.
- David J. Gunkel, A Vindication of the Rights of Machines, nello stesso volume.
- Joanna J. Bryson, Patiency Is Not a Virtue: Suggestions for Co-Constructing an Ethical Framework Including Intelligent Artefacts, nello stesso volume.
- Joel Parthemore e Blay Whitby, Moral Agency, Moral Responsibility, and Artefacts, nello stesso volume.
- Steve Torrance, The Centrality of Machine Consciousness to Machine Ethics, nello stesso volume.