Aggiornato al 03/05/2024

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

Tavis Coburn (Illustrator from California) – Artificial Intelligence and regulations

 

Strategia UE e Regolamento Europeo AI

di Vincenzo Rampolla

 

L’intelligenza artificiale deve servire le persone e pertanto deve sempre rispettare i diritti umani. Vogliamo incoraggiare le nostre aziende, i nostri ricercatori, innovatori e imprenditori a sviluppare l’intelligenza artificiale e vogliamo incoraggiare i nostri cittadini a sentirsi sicuri nel suo utilizzo, così ha esordito Ursula von der Leyen, Presidente CE, alla presentazione dell’AI Act alla Commissione. Si tratta del Regolamento Europeo sull’Intelligenza Artificiale (AI) che sarà adottato dal Consiglio Europeo e dal Parlamento Europeo e successivamente ratificato dai Parlamenti dei singoli Stati. Dopo la ratifica e l’entrata in vigore e diffusione stimata a primavera 2023, verrà applicato uniformemente in ogni suo punto in tutti gli Stati dell’UE con prevalenza giuridica sulle leggi statali, come stabilito dai trattati. L’AI Act diviene in assoluto il primo quadro giuridico riferito alle tecnologie dell’AI e al contempo a prova di futuro, perché definisce i criteri di base a cui tutte le tecnologie future dovranno attenersi. Può diventare un modello da seguire.

L’AI Act è definito pilastro essenziale della strategia del mercato unico digitale dell’UE. Esso stabilirà regole estese allo sviluppo, alla modifica e all’uso di prodotti, servizi e sistemi guidati dall’AI nel territorio dell’UE e applicabili a tutti i settori; garantirà il corretto andamento del mercato interno e la libera circolazione di beni e servizi basati sull’AI, lo scopo essendo definire regole condivise, per sostenere, sì, il mercato UE, ma aumentare la fiducia degli utenti verso le nuove tecniche che oggi pervadono ogni ambito della vita quotidiana con notevoli effetti su ricerca e innovazione. Alla preparazione hanno contribuito 52 esperti internazionali per più di 2 anni.

Fine primario dell’AI Act è valutare e rimuovere il rischio legato alle applicazioni ad alto contenuto di pericolo per l’utente; pone anche le basi per individuare le applicazioni che devono essere vietate e regolamentate. Nella versione attuale, tutti i sistemi AI sviluppati per ricerca pura non sono vincolati al Regolamento, non essendo ancora oggetto di business. Insieme alla codifica dei requisiti di un’AI affidabile sarà fornita una user guide per tutti gli sviluppatori di sistemi AI. Occorrerà infine dare vita a un’Agenzia o un Comitato di esperti che dovrà redigere le guidelines, raccordare l’AI Act con gli altri strumenti settoriali in essere e aggiornare periodicamente la classificazione del rischio, oltre ad altri eventuali interventi.

Al rischio, è abbinata la parola chiave fiducia: l’AI Act mira ad avvicinare i cittadini all’AI, per poter godere dei vantaggi che questa tecnologia può offrire, garantendo allo stesso tempo il rispetto dei diritti civili e dei valori fondamentali dell’UE. Sull’intelligenza artificiale, la fiducia è un must, non un “nice to have”. Stabilendo gli standard, possiamo aprire la strada alla tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva. A prova di futuro e di innovazione, le nostre norme interverranno ove strettamente necessarie: là dove la sicurezza e i fondamentali diritti dei cittadini UE sono in gioco, commenta Margrethe Vestager, Executive VP per la strategia di un’Europa preparata all’era digitale.

L’AI Act crea un sistema basato sul riconoscimento del rischio che un determinato sistema di AI pone alla salute, alla sicurezza o a altri diritti fondamentali di cui godono i cittadini dell’Unione. Tutti i sistemi AI che sono visti come una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati, in quanto rischio inaccettabile. Questo include sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare la libertà degli utenti (ex. giocattoli che usano subdoli interventi vocali alimentando comportamenti pericolosi nei minori) e sistemi di punteggio sociale da parte dei Governi (ex. Social Credit Score in Cina, metodo nazionale per classificare la reputazione dei cittadini, secondo la condizione economica e sociale).

Il livello di rischio alto è riferito a tecnologie utilizzate in:

  • Formazione scolastica o professionale, che può determinare l’accesso all’istruzione e il corso professionale della vita di un cittadino (per esempio il punteggio degli esami);
  • Infrastrutture critiche (per esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • Componenti di sicurezza dei prodotti (per esempio applicazione dell’AI nella chirurgia assistita da robot);
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
  • Servizi pubblici e privati essenziali (ad esempio il credit scoring che nega ai cittadini la possibilità di ottenere un prestito)
  • Applicazione della legge che può interferire con i diritti fondamentali delle persone (ad esempio la valutazione dell’affidabilità delle prove);
  • Gestione della migrazione, dell’asilo e del controllo delle frontiere (per esempio, verifica dell’autenticità dei documenti di viaggio);
  • Amministrazione della giustizia e dei processi democratici (per esempio, applicazione della legge a un insieme di fatti).

Prima di essere immessi sul mercato i sistemi  AI dovranno seguire obblighi e standard rigorosi, che includono: adeguati sistemi di valutazione e mitigazione del rischio; alta qualità delle serie di dati che alimentano il sistema per minimizzare i rischi e i risultati discriminatori; registrazione delle attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo fine per consentire alle autorità di valutarne la conformità; informazioni chiare e adeguate all’utente; misure appropriate di supervisione umana per minimizzare il rischio e alto livello di robustezza, sicurezza e accuratezza.

In questa categoria rientrano, in particolare, tutti i sistemi di identificazione biometrica a distanza, il cui impiego in linea di principio è vietato in spazi pubblicamente accessibili. Valgono alcune eccezioni, come: utilizzo per il ritrovamento di un minore scomparso; prevenzione di una minaccia terroristica e imminente; individuare, localizzare, identificare o perseguire un autore o un sospetto di un grave reato. In tali casi, l’impiego è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti adeguati in termini di tempo, località e banche dati usate.

Al livello di rischio limitato appartengono i sistemi AI che richiedono specifici obblighi di trasparenza, ad esempio i chatbot (simulatori di conversazioni umane), la cui presenza deve essere sempre segnalata, affinché gli utenti possano decidere se continuare o non procedere.

Infine, i sistemi di AI che presentano un rischio minimo, sono ad esempio i filtri anti-spam o videogiochi abilitati dall’AI, ai quali il Regolamento non è applicato.

In termini di governance, ovvero di chi vigilerà sul rispetto delle regole, con eventuali sanzioni ai trasgressori, la CE propone che le competenti autorità nazionali di sorveglianza del mercato supervisionino le nuove regole; per facilitarne l’attuazione sarà creato uno specifico Comitato europeo, incaricato di guidare anche la definizione di standard per l’AI.

È compito della CE registrare le applicazioni di AI ad alto rischio su una Banca dati pubblica europea. Ciò permetterà alle autorità competenti, agli utenti e ad altre persone interessate di verificare se tale sistema rispetti i requisiti stabiliti nel regolamento sulla tutela dei diritti dei cittadini. Per alimentare questo database, i fornitori saranno obbligati a dare informazioni rilevanti sui loro sistemi e sulla valutazione di conformità effettuata su tali sistemi.

Potranno, inoltre, adottare e implementare codici di condotta autonomi per i sistemi di AI non ad alto rischio. A questa proposta, la CE affianca la creazione di sandbox di riferimento (meccanismi estremamente controllati per eseguire applicazioni in una ristretta area di sistema operativo).  

Gli Stati membri verranno incaricati di stilare le regole relative alle sanzioni amministrative, che dovranno essere efficaci, proporzionali e persuasive, tenendo conto in particolare degli interessi dei piccoli fornitori e delle start-up, nonché della loro disponibilità economica.

Nel caso di mancato rispetto della normativa riguardante i sistemi di AI a rischio inaccettabile e ad alto rischio, la sanzione potrà arrivare a un valore massimo di €30 M o, nel caso di un’azienda, al 6% del fatturato consolidato per l’anno finanziario precedente a quello in cui si è verificata l’infrazione. Secondo il Regolamento, la scelta opterà per la penalty più elevata.

Criteri simili sono applicati nel mancato rispetto degli obblighi e degli standard precedenti all’immissione sul mercato di queste tecnologie e si applicherà una sanzione fino a €20 M o al 2% del fatturato. La diffusione di informazioni scorrette, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali in risposta a una richiesta, è soggetta a una multa fino a €10 M o al 2% del fatturato. Nel decidere la sanzione amministrativa da applicare, gli Stati terranno conto della natura dell’infrazione, dell’eventuale recidività del soggetto colpevole o dell’azienda e della natura del soggetto stesso (privati, grandi aziende o PMI).

L’AI Act utilizzerà i finanziamenti assegnati attraverso i programmi Politica di Coesione, Digital Europe, Horizon Europe e Recovery and Resilience Facility (che prevede un obiettivo di spesa digitale del 20%).

(consultazione:   commissione europea - regolamento europeo di intelligenza artificiale - ai act, aprile 2021; francessco a.nanni - giornalista; andrea ballocchi – giornalista; michelle crisantemi – innovation post)

 

Inserito il:10/04/2022 16:09:12
Ultimo aggiornamento:10/04/2022 16:14:21
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445