Aggiornato al 12/07/2025

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

Immagine realizzata con strumenti di Intelligenza Artificiale

Clicca qui per ascoltare (In lavorazione)

 

AI Act: un trionfo regolatorio o un boomerang tecnologico per l’Europa?

di Achille De Tommaso

 

L’AI Act, salutato dai promotori come il primo grande regolamento al mondo sull’intelligenza artificiale, è in realtà, a mio parere, un monumento all’autosabotaggio normativo. Nato con l’intento di “governare” lo sviluppo dell’IA secondo i valori europei — trasparenza, sicurezza, rispetto dei diritti fondamentali — il testo finale mostra invece le debolezze strutturali di una visione più preoccupata di contenere che di abilitare, più attenta al rischio che alla possibilità.

***

Una regolamentazione ex ante che paralizza l’innovazione

Il cuore dell’AI Act è l’approccio “basato sul rischio”: i sistemi di IA sono classificati in quattro livelli, da rischio inaccettabile (vietati) a basso rischio (quasi non regolati), passando per il temibile “alto rischio”, categoria che include usi critici in sanità, trasporti, giustizia, istruzione e amministrazione pubblica. Ma chi definisce il rischio? Secondo quali metriche? E con quale velocità si aggiorna la classificazione rispetto a una tecnologia in continua evoluzione?

Il risultato è una normativa rigida, pesante, burocratizzata, che scoraggia l’adozione dell’IA nei settori chiave, impone obblighi costosi (come la documentazione tecnica, il monitoraggio continuo e l’interazione con autorità di vigilanza), e finisce per penalizzare le PMI e i centri di ricerca, già in affanno rispetto ai colossi americani e cinesi.

L’illusione del primato etico

L’Europa ha voluto posizionarsi come “terza via” tra il laissez-faire americano e il controllo autoritario cinese, proponendo una “IA affidabile, etica e antropocentrica”. Ma questa ambizione si scontra con una realtà industriale drammatica: nessuna delle principali AI company mondiali è europea. Né OpenAI, né Google DeepMind, né Anthropic, né Baidu, né Alibaba, né NVIDIA sono nate nel continente. L’AI Act, lungi dal colmare il divario, rischia di approfondirlo, trasformando l’Europa in un mercato normato anziché in un polo produttivo.

La retorica dell’etica, spesso usata come scudo ideologico, appare allora come un lusso di chi ha smesso di competere. In assenza di una visione industriale, le belle parole sulla “IA umanocentrica” si svuotano di significato e si traducono in una perdita di sovranità tecnologica, proprio mentre USA e Cina investono miliardi in AI militare, biomedica, quantistica.

Una legge pensata per un passato che non c’è più

Il testo dell’AI Act è stato concepito prima della rivoluzione dei modelli fondativi, prima di ChatGPT, Claude, Gemini, LLaMA, Mistral. La comparsa di questi modelli generalisti (che possono essere usati per scrivere poesie, codificare software, generare deepfake o assistere in sala operatoria) ha reso impossibile una classificazione rigida per settore d’uso. Eppure l’AI Act procede imperterrito, con definizioni che già appaiono obsolete, e con una visione frammentata e statica della tecnologia.

L’obbligo di registrazione pubblica, la tracciabilità dei dataset, i requisiti di trasparenza algoritmica sembrano strumenti pensati per un’IA del 2018, non per la neuro-symbolic AI del 2025 o per le reti multimodali capaci di agire in ambienti ibridi.

Effetti collaterali: chi ci guadagna?

Chi trae beneficio da una normativa così rigida? Le big tech americane, che hanno eserciti di avvocati per ottemperare a ogni obbligo e possono continuare a operare in Europa aggirando le sanzioni con facilità. Oppure i governi autoritari, che guardano con compiacimento a un’Unione Europea incapace di proteggere la propria autonomia tecnologica.

Ma il danno maggiore lo subiscono i cittadini e le imprese europee, che vedranno rallentata l’adozione dell’IA nei servizi pubblici (sanità, giustizia, sicurezza), nel manifatturiero avanzato, nell’educazione, nella ricerca. Proprio dove l’Europa avrebbe potuto (e dovuto) eccellere.

Tra ingenuità normativa e miopia strategica

Il vero problema dell’AI Act non è l’intento, ma la modalità: un regolamento centralistico, punitivo, lentissimo nel recepire i cambiamenti. Invece di investire in infrastrutture, formazione, ecosistemi di innovazione, l’UE ha deciso di investire nel controllo e nella limitazione.

 

Inserito il:12/07/2025 10:44:57
Ultimo aggiornamento:12/07/2025 10:50:09
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445