EU AI Act: cos’è e cosa prevede
La regolamentazione delle applicazioni di intelligenza artificiale rappresenta un passo fondamentale verso un utilizzo responsabile e sicuro di questa potente tecnologia.
In questo articolo scoprirai:
Negli ultimi anni, l’Artificial Intelligence (AI) ha acquisito un ruolo centrale nella trasformazione digitale del nostro mondo, influenzando una vasta gamma di settori, dall’industria all’assistenza sanitaria, dalla mobilità alla finanza. Inevitabilmente, questa rapida evoluzione ha reso sempre più necessario e urgente una regolamentazione della tecnologia, che per sua natura (cioè la capacità di prendere decisioni e auto-apprendere) porta con sé implicazioni etiche importanti e delicate.Da aprile 2021 l’UE sta quindi lavorando al cosiddetto AI Act, un primo quadro normativo sull’Artificial Intelligence, che è stato approvato ufficialmente il 13 marzo 2024 e per cui si attende la pubblicazione in Gazzetta Ufficiale.
Che cos’è l’AI Act e perché è importante
L’obiettivo dell’AI Act è assicurare che i sistemi AI utilizzati all’interno dell’Unione Europea siano completamente in linea con i diritti e i valori dell’UE, garandendo il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
Le applicazioni AI, infatti, stanno raggiungendo capacità di analisi real-time sempre maggiori e possono “decidere” quali azioni intraprendere sulla base dei dati a disposizione. È proprio questa capacità di decidere e apprendere che rende necessarie le valutazioni etiche a cui abbiamo accennato a inizio articolo. Se un’applicazione AI prende una decisione sbagliata o che privilegia ingiustamente o danneggia un essere umano, di chi sarà la responsabilità? Ecco perché, con il diffondersi di questa tecnologia, l’UE ha deciso di lavorare a quello che sarà il primo regolamento sull’AI al mondo.
Un compito molto complesso: le norme che regolano l’uso delle tecnologie devono proteggere la privacy e l’incolumità dei cittadini, senza però limitare le possibilità di sperimentazione delle applicazioni.
Cosa prevede l’AI Act
Il Regolamento sull’IA stabilisce 4 livelli di rischio secondo cui categorizzare le applicazioni AI, che dovranno di conseguenza essere sottoposte a livelli diversi di monitoraggio.
Rischio inaccettabile
Sono strettamente vietate le applicazioni che utilizzano tecniche subliminali o sistemi di punteggio sociale utilizzati dalle autorità pubbliche. Sono inoltre vietati i sistemi di identificazione biometrica remota in tempo reale utilizzati dalle forze dell’ordine in spazi pubblicamente accessibili.
Rischio alto
Queste includono applicazioni legate ai trasporti, all’istruzione, all’impiego e al welfare, tra le altre. Prima di mettere sul mercato o in servizio nell’UE un sistema di IA ad alto rischio, le aziende devono condurre una “valutazione di conformità” preliminare e soddisfare un lungo elenco di requisiti per garantire la sicurezza del sistema. Come misura pragmatica, il regolamento prevede anche che la Commissione europea crei e mantenga un database di accesso pubblico in cui i fornitori saranno obbligati a fornire informazioni sui loro sistemi di IA ad alto rischio, garantendo trasparenza per tutte le parti interessate.
Rischio limitato
Si riferiscono a sistemi di IA che soddisfano specifici obblighi di trasparenza. Ad esempio, un individuo che interagisce con un chatbot deve essere informato che sta interagendo con una macchina in modo da poter decidere se procedere (o richiedere di parlare con un essere umano).
Rischio minimo
Queste applicazioni sono già ampiamente diffuse e costituiscono la maggior parte dei sistemi di IA con cui interagiamo oggi. Esempi includono filtri antispam, videogiochi abilitati all’IA e sistemi di gestione delle scorte.
Inoltre l’AI Act stabilisce che la responsabilità primaria sarà a carico dei “fornitori” di sistemi di IA; tuttavia, determinate responsabilità saranno assegnate anche a distributori, importatori, utenti e altri terzi, influenzando l’intero ecosistema.
L’AI in Italia, alcuni dati
Nel frattempo le applicazioni AI nel nostro paese continuano a diffondersi: l’Osservatorio Artificial Intelligence del Politecnico di Milano, nel suo ultimo report (febbraio 2023) ha calcolato che il mercato dell’artificial intelligence in Italia ha raggiunto un valore di 500 milioni di euro, con un +32% rispetto al 2021 e che le imprese italiane che hanno già avviato un progetto AI sono il 61% delle grandi imprese, percentuale che si ferma al 15% in ambito PMI per cui si prevede però un aumento nei prossimi 24 mesi.
La regolamentazione delle applicazioni di intelligenza artificiale rappresenta un passo fondamentale verso un utilizzo responsabile e sicuro di questa potente tecnologia, per plasmare un futuro in cui l’intelligenza artificiale sia un alleato affidabile e rispettoso dei valori umani, contribuendo a creare un ambiente digitale più sicuro e etico per tutti. La chiave sta nell’equilibrio tra l’innovazione tecnologica e la protezione dei diritti umani, un obiettivo che richiede un impegno costante da parte di tutti gli attori coinvolti.