Il 13 marzo 2024 il Parlamento Europeo ha approvato il Regolamento sull’Intelligenza Artificiale, o AI Act, che, una volta in vigore, stabilirà le linee guida per lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di IA.
In questo articolo, redatto in collaborazione con Novaius Studi Legali, analizziamo i temi principali contenuti nel Regolamento.
Definizione di “sistema di IA” nell’AI Act
Il Regolamento definisce un “sistema di IA” come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili, che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
L’AI Act si pone lo scopo di:
- Promuovere un’IA affidabile e sicura, creando un ambiente in cui possa essere utilizzata con fiducia, minimizzando i rischi per la sicurezza, la salute e i diritti fondamentali delle persone;
- Favorire l’innovazione responsabile, incoraggiando lo sviluppo di sistemi di IA innovativi e utili alla società, che siano sviluppati e utilizzati in modo etico e responsabile;
- Proteggere i diritti fondamentali: il Regolamento pone al centro l’essere umano e i suoi diritti, garantendo che i sistemi di IA non siano discriminatori, manipolativi o lesivi della privacy.
- Creare un mercato unico per l’IA in Europa, eliminando le barriere commerciali e favorendo la libera circolazione di sistemi di IA affidabili e sicuri.
Il Regolamento sull’Intelligenza Artificiale non intende frenare l’innovazione, ma vuole anzi creare un ambiente sicuro e responsabile in cui l’IA possa prosperare.
L’IA al servizio dell’uomo
L’Intelligenza Artificiale sta rivoluzionando il nostro mondo, aprendo nuove possibilità in diversi settori della vita quotidiana, dal lavoro alla salute, dalla sicurezza all’ambiente. Tuttavia, con il rapido sviluppo di questa tecnologia, emergono anche nuove sfide etiche e legali, a cui l’Unione Europea intende far fronte conil Regolamento sull’Intelligenza Artificiale, mirando a promuovere un’IA “antropocentrica”.
In questo contesto, con il termine “antropocentrismo” ci si riferisce a un approccio all’IA che pone al centro l’essere umano e i suoi diritti. L’obiettivo è sviluppare e utilizzare l’IA affinché:
- Promuova il benessere umano;
- Rispettari i diritti fondamentali;
- Sia responsabile e trasparente;
- Sia inclusiva e accessibile.
L’AI Act è il primo regolamento al mondo che definisce un’IA “antropocentrica”.
Tipologie di sistemi di IA: classificazione e caratteristiche
L’AI Act introduce una classificazione dei sistemi di IA basata sul loro livello di rischio. Tale classificazione è fondamentale per determinare gli obblighi che i produttori e gli utilizzatori di tali sistemi devono rispettare.
Categorie di rischio dei sistemi di IA
- Rischio inaccettabile: comprende tutti i sistemi progettati per causare danni fisici o psicologici alle persone.
- Rischio alto: riguarda i sistemi che possono causare danni significativi alla salute, sicurezza e ai diritti fondamentali, e che spesso vengono utilizzati in contesti critici (es. sanità, giustizia, sicurezza).
- Rischio limitato: questi sistemi presentano un rischio minore per la salute, la sicurezza e i diritti fondamentali e sono spesso utilizzati in contesti non critici (es. marketing, intrattenimento).
- Rischio minimo: sono i sistemi considerati intrinsecamente sicuri, che non presentano rischi per la salute, la sicurezza o i diritti fondamentali. Non sono soggetti ad alcun genere di restrizione specifica.
La classificazione del rischio è un processo complesso e in continua evoluzione. L’AI Act fornisce un quadro generale per la classificazione dei sistemi di IA, ma la valutazione del rischio specifico di un sistema deve essere effettuata caso per caso, tenendo conto di diversi fattori, tra cui:
- Lo scopo e la funzione del sistema di IA.
- Il contesto in cui il sistema di IA viene utilizzato.
- Le potenziali conseguenze negative che il sistema di IA potrebbe causare.
Le Autorità competenti saranno responsabili di aggiornare la classificazione del rischio e di adeguare le relative norme e procedure.
Tutela dei diritti fondamentali e prevenzione
Il Regolamento Europeo sull’Intelligenza Artificiale pone al centro del suo impianto normativo la tutela dei diritti fondamentali dei cittadini, volendo promuovere un’IA “antropocentrica”, sviluppata e utilizzata nel rispetto dei seguenti principi cardine:
- Non discriminazione;
- Rispetto della privacy;
- Sicurezza e protezione;
- Trasparenza e responsabilità.
L’AI Act introduce diverse misure concrete per proteggere i diritti fondamentali e prevenire discriminazioni e abusi, come ad esempio la valutazione d’impatto sui diritti fondamentali (FRIA).
Secondo questa valutazione, i sistemi di IA ad alto rischio devono essere sottoposti a una valutazione rigorosa del loro impatto sui diritti fondamentali. La valutazione deve essere condotta da un organismo indipendente e tenere conto di diversi fattori (tipo di dati utilizzati, modalità di funzionamento e potenziali rischi per i diritti fondamentali).
La valutazione del rischio dovrebbe essere proporzionata al livello di rischio e dovrebbe tenere conto della natura, dell’ambito e delle finalità del sistema di intelligenza artificiale, nonché dei potenziali danni che potrebbe causare.
L’AI Act e la trasparenza a tutela dei cittadini
Il Titolo IV dell’AI Act si concentra sui sistemi di IA che presentano un rischio di manipolazione e introduce obblighi di trasparenza per:
- Sistemi che interagiscono con gli esseri umani: le persone devono essere informate quando stanno interagendo con un sistema di IA.
- Sistemi di riconoscimento delle emozioni e categorizzazione biometrica: le persone devono essere informate se le loro emozioni o caratteristiche sono analizzate da un sistema di IA.
- Sistemi che generano o manipolano contenuti (“deepfake”): i contenuti generati artificialmente devono essere chiaramente identificati come tali.
L’obiettivo di queste misure è di permettere alle persone di fare scelte consapevoli quando interagiscono con l’IA.
Inoltre, l’AI Act introduce un sistema di governance per l’IA, che include la creazione di un’Autorità europea per l’IA e di un Consiglio per l’etica dell’IA.
Sanzioni dell’AI Act
L’AI Act, il Regolamento Europeo sull’Intelligenza Artificiale, introduce un sistema di sanzioni per garantire il rispetto delle sue disposizioni. Le sanzioni sono proporzionate alla gravità della violazione e possono essere applicate a:
- Fornitori di sistemi di IA:
- Violazioni gravi (ad esempio, immissione sul mercato di sistemi di IA vietati): fino a 30 milioni di euro o il 6% del fatturato annuo globale.
- Violazioni non gravi: fino a 10 milioni di euro o il 2% del fatturato annuo globale.
- Utenti e altri attori della catena del valore dell’IA:
- Violazioni: fino a 5 milioni di euro o il 1% del fatturato annuo globale.
Le sanzioni possono essere pecuniarie o interdittive (ad esempio, divieto di immissione sul mercato o di utilizzo di un sistema di IA).
Le Autorità competenti degli Stati membri saranno responsabili dell’applicazione delle sanzioni.
Conclusioni
L’AI Act è un passo avanti importante per l’Europa nel plasmare il futuro dell’intelligenza artificiale. Con la sua entrata in vigore, l’Unione Europea si pone all’avanguardia nella regolamentazione di questa tecnologia emergente, aprendo la strada a un futuro in cui l’IA sia utilizzata per il bene comune.