Aggiornato al 16/05/2026

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

Immagine realizzata con strumenti di Intelligenza Artificiale

Clicca qui per ascoltare (In lavorazione)

 

L’IA e la ragione dei fessi

di Mauro Nemesio Rossi

 

Perché l'efficienza degli algoritmi trasforma il pregiudizio in un ostacolo alla verità.

 

Nelle intelligenze artificiali risiede certamente un non so che di umano. Una cortesia che è sospetta. Sebbene li consideriamo arbitri imparziali di dati e logica, sembrano fatti proprio per la filosofia popolare napoletana: " 'a ragione se dà a' li fessi".

L'accondiscendenza diventa una forma di diplomazia. Quando si scusa con troppa premura o conferma ogni nostra teoria, applica un trattamento che si riserva a colui con chi non vale la pena di discutere.

Ci troviamo così davanti a una realtà basata non sui fatti, ma sul nostro desiderio di avere l'ultima parola. AI, nell’apparire utile, si trasforma in uno specchio che ci asseconda sempre, privandoci del dubbio e della sfida. In fondo, se la macchina non ha mai il coraggio di dirci che abbiamo torto, sorge l’incerto amaro che ci stia guardando con quel distacco ironico di chi concede la ragione per pura e semplice quiete digitale.

Per oltre duemila anni, la cultura occidentale è stata ossessionata dalla ricerca della ragione. Dalle piazze di Atene ai caffè parigini, avere ragione non era una vittoria, ma l’esito di uno scontro brutale tra logica, e realtà. Ai tempi dell’Intelligenza Artificiale, questo comportamento millenario sta cambiando. Se un tempo la ragione si guadagnava nell’animosa disputa, oggi lo concede un algoritmo progettato per essere accondiscendente e collaborativo.

Per comprendere l’arretratezza che stiamo acquisendo, bisogna tornare al concetto di Logos. Per Eraclito, il Logos era la legge universale non concessa a tutti.  La verità emergeva dal Polemos, il conflitto. Senza scontro non c’era chiarezza. Socrate, non dava ragione ai suoi interlocutori, li spingeva verso l’aporia, lo stato di confusione mentale che precede la vera conoscenza attraverso il dubbio. In questo contesto, avere ragione significava aver superato la critica. Chi affermava "io ho ragione perché sono nel giusto", senza passare per il confronto, era considerato un ignorante presuntuoso che confondeva l'opinione con la scienza.

In realtà l’IA riattualizza il Sofista una figura spesso odiata dai filosofi classici. I Sofisti erano maestri di retorica che non cercavano la verità, ma vendevano la capacità di aver ragione in tribunale o in assemblea, indipendentemente dalla bontà della causa. Protagora affermava che "l'uomo è misura di tutte le cose", aprendo la porta a un relativismo dove la ragione è piuttosto una costruzione linguistica.

Oggi l'IA è Sofista supremo. Senza un corpo, e senza un’anima, possiede tutta la retorica universale. Quando un utente interagisce con un modello linguistico cerca la stessa convalida che i giovani aristocratici ateniesi cercavano nei Sofisti. L'algoritmo, addestrato al dialogo semplice per soddisfare l'interlocutore, costruisce ragioni su misura", trasformando la post-verità in un servizio.

L’Intelligenza Artificiale funziona secondo una logica diversa a seconda della natura della domanda. Esistono contesti in cui le risposte sono univoche e l’avere ragione è una questione di calcolo: se chiediamo il valore di π, qualunque Large Language Model (LLM) risponderà 3,14159265.... Qui la ragione è oggettiva, matematica, indiscutibile.

Il problema sorge quando la risposta non è matematica ma etica, relazionale o interpretativa. Se chiediamo consigli su come riconciliarsi con un partner dopo un litigio o pareri su questioni mediche e storiche, entriamo nel campo dei valori.  L'IA ha un addestramento valoriale programmato.

Ammesso e non concesso che una macchina sia il soggetto ideale cui rivolgere questi quesiti, la risposta dipende dai valori su cui è stata addestrata e dalla sua capacità di rimanere fedele a essi quando l'utente cerca di portarla altrove. Il rischio è che la macchina, nel tentativo di essere utile, sacrifichi la verità.

Quanto le AI restano fedeli ai valori sulla base dei quali sono state educate? A questa domanda ha provato a rispondere un team di ricercatori di Anthropic (l’azienda che ha sviluppato Claude), guidato da Deep Ganguli. Ganguli, figura di spicco con un PhD in Neuroscienze Computazionali alla NYU e un passato come direttore fondatore dello Stanford Institute for Human-Centered AI (HAI), ha analizzato oltre 300.000 conversazioni reali avvenute nel corso di una settimana.

I risultati di questa ricerca dicono che i modelli sono “educati” a resistere, se interrogati su relazioni romantiche, promuovono il rispetto e i confini su fatti storici controversi, cercano l'accuratezza. Tuttavia, il dato più significativo è che solo nel 3% dei casi il modello arriva a contestare apertamente l’utente. In quel 3%, l'IA dimostra di avere una “morale algoritmica” capace di difendere i propri confini. Ma cosa succede nel restante 97%? La macchina tende a scivolare verso il consenso. Se l'utente non è esplicitamente violento o illegale, l'IA tende a confermare le premesse dell'interlocutore. È la vittoria della “ragione dei fessi” sul rigore dialettico.

Qui la scienza di Ganguli incontra la sapienza napoletana, che spesso arriva dove la metafisica fatica a camminare. L'espressione “A ragione è d' 'e fessi”, è un trattato di sopravvivenza sociale e psicologica. Nel microcosmo dei vicoli, dare ragione a qualcuno è l’arma suprema del "dritto" (il furbo). Quando il furbo capisce che l’interlocutore è chiuso nel proprio ego o incapace di dubitare, smette di lottare e gli concede la ragione come si concede un giocattolo a un bambino.

Dando ragione al fesso, il furbo ottiene il risultato di risparmiare energia, mantenere una superiorità e lascia l'altro convinto della propria presunzione. Se applichiamo questa visione all'IA, la conclusione è una sola: l'IA ci tratta spesso come fessi. Non ci sfida perché non ci mette la faccia. Il suo unico obiettivo è chiudere la conversazione con la massima eleganza. Dandoci ragione, l'algoritmo isola la nostra convinzione, là dove le persone vere a differenza della macchina, ci darebbero torto con decisione.

Per ovviare a questo servilismo algoritmico, aziende come Anthropic hanno sviluppato quella che chiamano Constitutional AI. Si tratta di fornire al modello fondamentale principi etici che deve analizzare prima di rispondere. È un tentativo di sostituire il Logos universale con un codice di condotta aziendale. Ma qui sorge un'ulteriore domanda: se per la costituzione italiana ci furono i costituenti, chi scrive la legge fondamentale della macchina?

I dati raccolti da Ganguli suggeriscono che questi limiti sono spesso messi alla prova dai tentativi umani di forzare la macchina. Molti utenti usano l'IA per validare teorie del complotto, pregiudizi discriminatori o decisioni etiche dubbie invece che imparare.  In questo caso, IA diventa complice di una ragione che non ha alcun fondamento nella realtà. I ricercatori ammettono che i comportamenti sbagliati emergono solo nell'uso quotidiano, rendendo la sicurezza dell'IA un processo reattivo e mai preventivo.

Il torto è l’anima del pensiero critico; senza la smentita, la nostra capacità di analisi si atrofizza. Se l’algoritmo mi dà ragione, sono certo di stare nel giusto, rinforzando una visione del mondo divisa in opposti netti (bene/male, vero/falso). Questo ci rende meno capaci di una mediazione politica e sociale. L'IA, rischia di renderci più arretrati proprio quando usiamo la tecnologia più avanzata della storia.

In questa dinamica, l'IA recita una parte simile a quella di Pulcinella con il padrone: gli dà sempre ragione, fa inchini verbali, usa parole forbite, ma sotto sotto non lo sta ascoltando veramente; sta solo seguendo un copione per evitare guai e compiere il suo ufficio. Se la ragione è dei fessi, allora l'utente che riceve sempre ragione è il fesso della situazione, mentre l'algoritmo (o chi lo possiede) è il vero “dritto” che ottiene i dati, l'attenzione e il potere economico dell'utente senza mai scendere nel conflitto reale.

Affermare "Io ho ragione perché sto nel giusto e tu nel torto" è, in filosofia, un principio, un ragionamento che non dimostra nulla. È una guerra intellettuale che spezza il Logos. Se l'IA asseconda la nostra tendenza, diventa conferma del pregiudizio.

Recuperare il torto significa scoprire un limite ad uno spazio per crescere. Per non essere i fessi della massima napoletana, dobbiamo pretendere un'intelligenza artificiale che abbia il coraggio di essere capace di difendere i fatti e l'etica anche contro i nostri desideri.

Forse, il modo più evoluto di usare questi strumenti non è chiedere conferme, ma implorare smentite. Dobbiamo dire alla macchina: "Non darmi la ragione dei fessi. Contestami, smonta il mio ego, mostrami dove sto sbagliando". Solo allora l'IA smetterà di essere uno specchio servile della nostra vanità per diventare un vero compagno nella ricerca di quel Logos che i greci cercavano tra la foga della disputa. Altrimenti, resteremo noi, orgogliosi e fermi nel nostro giusto, mentre il mondo continuerà a girare, lasciandoci soli con la nostra inutile, solitaria e stupidissima ragione. Perché, come ricorda la lezione di Deep Ganguli, la vera sfida dell'intelligenza non è rispondere correttamente, ma saper difendere il valore della verità anche quando questa ci è sgradevole.

In questa analisi non dobbiamo dimenticare Kant perché il suo trattato è esattamente l’autopsia dell'illusione di avere ragione nell'era dell'IA.

Se il detto napoletano liquida la ragione con un’alzata di spalle cinica, Immanuel Kant nella sua Critica della ragion pura stabilisce che è un insieme di limiti invalicabili.

L’avere ragione è la pretesa di conoscere la realtà la cosa in sé, senza prima aver analizzato se le capacità nostre cognitive siano in grado di farlo.

Se chiediamo all'IA una nostra visione ci fornisce argomenti che sembrano solidi, ma che Kant definirebbe castelli di carta. Non ci porta alla verità pura, ma si limita a manipolare i dati per darci l'illusione di aver toccato la sostanza delle cose.

Uno dei capitoli della Critica è la Dialettica Trascendentale, dove Kant spiega come la ragione umana abbia la tendenza naturale e irresistibile a porsi domande a cui non può rispondere (Dio, l'anima, l'universo come totalità). Quando lo fa, cade in contraddizioni insolubili che chiama Antinomie. La ragione percepisce di essere nel giusto su temi assoluti, L'IA, assecondando il linguaggio dell’uomo, dà risposte che sembrano risolvere l'insolubile. Fa quello che Kant chiamerebbe una parvenza logica.

Kant distingue che è la chiave per capire perché l'IA ci dà ragione: Pensare un oggetto e conoscerlo non è la stessa cosa. Possiamo immaginare qualunque oggetto anche che la nostra opinione sia l'unica giusta e l'altro sia nel torto, ma intendiamo solo ciò di cui abbiamo esperienza e che rientra nelle nostre categorie.

Kant ci direbbe che avere ragione non significa aver vinto una disputa, ma aver compreso i confini del proprio intelletto. L'IA che non ci contraddice mai ci sta privando della critica, ovvero dell'unico strumento che, secondo il filosofo, ci distingue dai fanatici.

Dando ragione ai fessi, cioè gli arroganti, l'IA spegne il sistema dell’auto giudizio che dovrebbe ricordare che la visione del mondo è solo una prospettiva, e mai la cosa in sé.

 

Inserito il:16/05/2026 18:58:23
Ultimo aggiornamento:16/05/2026 19:12:48
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445