Aggiornato al 18/05/2024

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

 

Etica, intelligenza artificiale e i fantasmi d’Amleto

di Fabrizio Cugia

 

Venerdì 22 settembre 2023, per il tramite di una lettera aperta firmata da oltre 30.000 tra esperti mondiali, ricercatori e figure di spicco dell’industria IT il Future for Life Institute ha proposto una moratoria di sei mesi sulla sperimentazione di nuovi sistemi di intelligenza artificiale, con l’intento di imporre una discussione e raggiungere possibilmente una linea valoriale mondiale in tema di nuovi sviluppi nei servizi IA.

Il tentativo è probabilmente destinato a fallire com’è fallita pochi mesi prima la richiesta di replica su una lista di domande indirizzate ai giganti del settore, passata candidamente inosservata.

L’indifferenza mostrata dai giganti high tech nell’affrontare i temi etici sottostanti all’uso e sviluppo dell’IA può forse spiegarsi tenendo a mente le regole che governano l’economia globalizzata, ove la domanda è di fatto creata dall’offerta ed i bisogni costruiti e confezionati in modo sartoriale per un match tra domanda e offerta costruita a tavolino. Con i tempi evolutivi dei nuovi sistemi di intelligenza artificiale il laissez faire etico equivale alla creazione di sacche monopolistiche di mercato, anche perché un vero e proprio impianto normativo è ancora del tutto assente.

Nelle sue Linee guida etiche sull’intelligenza artificiale del 2019 il High Level Group di esperti nominato dalla Commissione europea ha sottolineato che “l’intelligenza artificiale non richiede solo il rispetto della legge: le leggi non sono sempre al passo con gli sviluppi tecnologici e a volte possono non essere al passo. con norme etiche o semplicemente non essere adatti ad affrontare determinate questioni. Affinché i sistemi di intelligenza artificiale siano affidabili, dovrebbero quindi essere anche etici, garantendo l’allineamento con le norme etiche”.

Questa visione ha poi dettato l’elencazione di alcuni principi etici preliminari nella Prima bozza di regolamento del Parlamento UE sull’IA (versione del 14.6.2023), normativa che dovrebbe vedere la luce entro il 2024. Nella bozza di Regolamento IA si trovano espressamente vietati sistemi di minaccia sociale dell’IA basati sulla manipolazione cognitivo comportamentale, impianti social scoring (sistema che risulta già adottato in Cina, ed è di pochi giorni fa la notizia che Alibaba è stata messa sotto stretta osservazione dai servizi di sicurezza del Belgio per il sistema di reperimento e trasferimento massivo in Cina di dati di residenti, per scopi facilmente prevedibili, e riconoscimenti biometrici in tempo reale, ammessi solo previe garanzie specifiche concesse ai titolari dei diritti (es. approvazione giudiziaria).

Coerentemente la stessa bozza di Regolamento stabilisce che l’IA generativa (come ChatGPT) dovrà rispettare i requisiti di trasparenza e responsabilità, ad es. nella divulgazione di riepiloghi di dati protetti da copyright e progettazione by design volta ad evitare la creazione di contenuti illegali.

In assenza di un quadro normativo certo encomiabilmente nel marzo 2023 l’Autorità Garante della privacy italiana ha imposto limitazioni sui servizi ChatGPT imponendo con effetto immediato una limitazione provvisoria al trattamento dei dati dei residenti italiani su OpenAI, società statunitense di gestione della piattaforma.

I principi etici generali stabiliti nella bozza di Regolamento variano dal rispetto per l’autonomia umana alla Prevenzione dei danni sino a ricomprendere l’equità e la riferibilità in termini di responsabilità by design. Molti di questi principi sono in larga misura già riflessi nei requisiti legali esistenti per i quali è richiesta la conformità obbligatoria e quindi rientrano anche nell’ambito dell’IA legale, che è la prima componente dell’IA affidabile. Tuttavia, come anticipato, sebbene molti obblighi legali riflettano principi etici, l’adesione ai principi etici va oltre il rispetto formale delle leggi esistenti.

Ad esempio, per quanto riguarda il principio del rispetto dell’autonomia umana, la bozza suggerisce che i sistemi di IA non dovrebbero subordinare, costringere, ingannare, manipolare, condizionare e/o radunare ingiustificatamente gli esseri umani e dovrebbero invece essere progettati per aumentare, integrare e potenziare le capacità cognitive, sociali e competenze culturali. L’allocazione delle funzioni tra esseri umani e sistemi di intelligenza artificiale dovrebbe seguire principi di progettazione incentrati sull’uomo e lasciare opportunità significative per la scelta umana. Ciò significa garantire il controllo umano sui processi di lavoro nei sistemi di intelligenza artificiale. Per quanto riguarda la tutela della dignità umana, i sistemi di IA e gli ambienti in cui operano dovrebbero essere sicuri e protetti e garantire che non siano aperti ad usi dannosi. I sistemi di intelligenza artificiale dovrebbero inoltre essere progettati in modo da aumentare l’equità sociale.

Tuttavia, qualora la bozza di Regolamento UE dovesse passare al vaglio legislativo nel 2024, tra termini transitori e vacazione di legge le nuove norme entrerebbero in vigore non prima del 2026 per vincolare i soli operatori attivi nel territorio UE, una data che da sola fa capire quanto sia improcrastinabile la determinazione di un comune denominatore nella pianificazione dello sviluppo in tema IA.

Le norme arriveranno inevitabilmente tardi, e ad aggravare il quadro - oltre al fenomeno “autogenerativo” della domanda – vi è che i sistemi IA si intersecano inevitabilmente con le visioni politiche e sociali sottostanti gli ordinamenti: sistemi IA son già utilizzati massivamente nelle autocrazie, tanto che l’eventuale identificazione di principi etici comuni difficilmente potrebbe superare lo scoglio di visioni ed interessi economici mondialmente contrapposti.

Il dilemma amletico è quindi se dare prevalenza al valore economico costituito dai dati oppure subordinarne l’uso ai fini esclusivi di libertà. Detto altrimenti se i principi sottostanti allo sviluppo dell’IA debbano rispondere solo ai principi di economia di mercato oppure se – per la pericolosità intrinseca dell’IA- ogni sviluppo dell’IA dovrà innanzitutto garantire il quadro di libertà individuali e la non dipendenza dai sistemi stessi ai fini di sua ammissione.

Più che un dilemma sembra forse un paradosso, perché in un mondo già allo stremo nell’uso di risorse è fin troppo facile “provare” l’importanza e la non sostituibilità di sistemi di IA ai fini di garantire interessi collettivi quali l’ottimizzazione, il risparmio, la condivisione o il raggiungimento di obiettivi economici generali (temo sia esattamente questo il tipo di ragionamento posto alla base dei sistemi di social scoring quali quelli adottati in Cina).

Spinoza, come noto, sosteneva una concezione espressivista del giudizio morale. Nella sua Etica afferma che «è chiaro che non aspiriamo, né vogliamo, né vogliamo né desideriamo alcuna cosa perché la giudichiamo buona: al contrario, giudichiamo buona una cosa perché la aspiriamo e la desideriamo”. Tradotto sui sistemi IA predittivi (perfettamente abili a generare autonomamente la domanda sul mercato) significa prevalenza del laissez faire di mercato, in barba ai dubbi etici.

La nostra economia è guidata dal profitto, e purtuttavia la maggior parte delle norme etiche (come l’equità, la non discriminazione, la solidarietà e la giustizia) trovano un fondamento nei principi di responsabilità (principio di esplicabilità), fondamentali, nel caso di specie, per costruire e mantenere una futura fiducia degli utenti nei sistemi di intelligenza artificiale. Ciò significa che in un ordinamento come il nostro i processi IA devono necessariamente essere trasparenti e le capacità e finalità comunicate apertamente. Senza tali informazioni, una decisione non può essere debitamente impugnata, ed una spiegazione del motivo per cui un modello ha generato un particolare output o decisione (e quale combinazione di fattori di input ha contribuito a ciò) non risulterebbe né possibile né attribuibile in termini di responsabilità. Questi casi sono definiti algoritmi “scatola nera” e richiedono un’attenzione particolare, mentre in tali circostanze potrebbero essere necessarie altre misure di spiegabilità (ad esempio tracciabilità, verificabilità e comunicazione trasparente sulle capacità del sistema), a condizione che il sistema nel suo insieme rispetti i diritti fondamentali e le norme etiche.

In che modo potranno quindi convivere due visioni “etiche” diverse in tema di IA? E’ ancora possibile intercettare la creazione di servizi auto-generati da sistemi di IA in un contesto di libero mercato, ritorno degli investimenti e lotta tra sistemi autocratici e democrazie?

I sistemi di intelligenza artificiale derivano da pratiche di base di ricerca ed esecuzione di transazioni economiche. Lo sviluppo dell’intelligenza artificiale si basa su ingenti investimenti di capitale e segue le regole aziendali. Si tratta di fornire rappresentazioni alle persone (parte verità) e di fare affidamento sulle loro rappresentazioni (parte fiducia), in coerenza con le definizioni generali delle transazioni aziendali (cfr. Gini e Marcoux, “Il business dell'etica”, 2012). Sartre immaginava che la questione fondamentale della vita fosse “cosa dovrei fare?” e sosteneva che siamo “condannati” a essere liberi: ebbene nel caso di IA non possiamo evitare e sfuggire all’azione e alla scelta.

Parafrasando Wittgenstein (“la filosofia non è una teoria”) potremmo dire che l'etica non è una teoria, ma un'attività. Per quanto riguarda l’etica aziendale applicata all’IA dobbiamo innanzitutto capire quale etica applichiamo: una decisione che dipende dalla superiorità di una teoria etica rispetto ad un’altra non è una decisione di cui possiamo essere sicuri, e questa controversia necessita di essere risolta molto prima di dar vita ai prossimi sistemi di IA. E’ una scelta che deve essere fatta nella pratica, cioè quando deve essere presa una decisione nel mondo degli affari. Il contesto è importante e non dovremmo lasciare che la perfezione sia nemica del bene. Sperare che la futura legislazione possa imporre una visione etica mondiale (condivisa?) appare ormai impraticabile: è una chimera, e non serve alcuna prova, alcuna “trappola per topi” di Amleto.

Joseph Schumpeter ha coniato l’espressione “distruzione creativa” per descrivere l’effetto dinamico della concorrenza tra imprese.

Come nel caso della manipolazione genetica, a volte la tecnologia si sviluppa fino a diventare antitetica a principi condivisi, imponendo l’adozione di scelte. In un autentico sistema di libero mercato con un sistema valoriale condiviso un concorrente virtuoso sfrutta i vantaggi della concorrenza senza permettere alla concorrenza di diventare padrona. Mutatis mutandis, parrebbe questa la strada.

 

Inserito il:07/10/2023 09:13:11
Ultimo aggiornamento:07/10/2023 09:19:52
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445