Il regolamento UE sull’IA entrerà in vigore nell’agosto 2024
A seguito della prima proposta della Commissione Europea nell’aprile 2021, il Parlamento Europeo ha adottato il Regolamento UE sull’intelligenza artificiale. Questo è stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea nel luglio 2024 ed è ora disponibile in tutte le 24 lingue ufficiali degli Stati membri dell’UE. Il regolamento entrerà ufficialmente in vigore nell’agosto 2024, anche se la maggior parte delle disposizioni entrerà in vigore solo due anni dopo. Tuttavia, per le singole disposizioni valgono scadenze diverse. Il regolamento stabilisce obblighi per le aziende che sviluppano e/o utilizzano sistemi di intelligenza artificiale nell’Unione Europea.
Calendario della regolamentazione dell’UE sull’IA
Il regolamento UE sull’IA sarà sviluppato e attuato secondo il seguente calendario:
Aprile 2021: prima proposta della Commissione Europea
Marzo 2024: Adozione da parte del Parlamento Europeo
Luglio 2024: pubblicazione ufficiale nella Gazzetta Ufficiale dell’UE
Agosto 2024: il regolamento entra in vigore
Metà del 2025: piena attuazione in tutti gli Stati membri dell’UE
Cos’è il Regolamento Europeo sull’Intelligenza Artificiale?
La legge europea sull’intelligenza artificiale 2024 è un regolamento della Commissione europea che mira a garantire che i sistemi di intelligenza artificiale siano utilizzati in modo “sicuro, trasparente, tracciabile, non discriminatorio e rispettoso dell’ambiente” . Il regolamento intende disciplinare il modo in cui i sistemi di IA possono essere gestiti adeguatamente da “fornitori” e “operatori” di sistemi di IA in conformità ai rischi che comportano. Un “fornitore” di sistemi di intelligenza artificiale è, nel senso più ampio, un’azienda che offre o sviluppa un sistema di intelligenza artificiale con il proprio marchio. Gli operatori sono coloro che utilizzano le tecnologie AI. Pertanto, qualsiasi azienda può appartenere a questo gruppo. Maggiore è il rischio del sistema di intelligenza artificiale, più severi sono i requisiti normativi.
Alcuni punti chiave della normativa UE sull’IA
- Classificazione basata sul rischio: la legge sull’intelligenza artificiale classifica i sistemi di intelligenza artificiale in diversi livelli di rischio, ciascuno con requisiti normativi specifici per gestirne i potenziali impatti.
- Requisiti di trasparenza: i sistemi di IA ad alto rischio devono soddisfare rigorosi requisiti di trasparenza e tenuta dei registri per garantire responsabilità e tracciabilità.
- Supervisione umana: alcuni sistemi di intelligenza artificiale richiedono la supervisione umana per mitigare i rischi e mantenere standard etici.
Livelli di rischio nella normativa UE sull’IA
La legge sull’AI definisce quattro livelli di rischio per i sistemi di IA, ciascuno dei quali è associato a specifici requisiti normativi:
Fonte : Pubblicazione ufficiale della Commissione Europea sulla legge sull’AI
Rischio inaccettabile
I sistemi di intelligenza artificiale che scendono al di sotto di questo livello di rischio rappresentano una chiara minaccia e sono severamente vietati. Gli esempi includono la manipolazione del comportamento attraverso tecniche cognitive come giocattoli a comando vocale che inducono i bambini a comportarsi in modo pericoloso o sistemi di classificazione sociale che classificano le persone in base al loro comportamento o alle caratteristiche personali.
Sistemi di intelligenza artificiale ad alto rischio
I sistemi di intelligenza artificiale di questa categoria possono avere impatti significativi sulla salute, sulla sicurezza o sui diritti fondamentali. Esempi di ciò includono l’intelligenza artificiale nella gestione delle infrastrutture critiche, nell’istruzione, nell’occupazione e nelle forze dell’ordine. Tutti i sistemi di intelligenza artificiale ad alto potenziale di rischio devono essere sottoposti a test rigorosi prima di essere immessi sul mercato e per tutta la loro durata. Gli individui hanno il diritto di segnalare preoccupazioni sui sistemi di IA alle autorità nazionali competenti.
Rischio limitato
Questi sistemi di intelligenza artificiale presentano un rischio basso e sono soggetti a requisiti di trasparenza. Ad esempio, gli utenti che interagiscono con i chatbot devono essere informati che stanno parlando con un’intelligenza artificiale. I fornitori devono inoltre garantire che i contenuti generati dall’intelligenza artificiale, in particolare su argomenti di interesse pubblico, siano chiaramente contrassegnati come generati artificialmente, indipendentemente dal fatto che si tratti di testo, audio o video.
Rischio minimo o nullo
I sistemi di IA con rischio minimo o nullo non sono soggetti a requisiti normativi aggiuntivi. Esempi di ciò includono videogiochi controllati dall’intelligenza artificiale e filtri antispam.
Compliance e AI: cosa dovrebbero fare le aziende
Come ha spiegato il Consiglio europeo in un comunicato stampa di maggio , è importante valutare l’impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio venga implementato da alcune società che forniscono servizi pubblici.
Ci sono alcuni punti che i fornitori di sistemi di intelligenza artificiale devono tenere a mente:
- Condurre una valutazione del rischio determinando la categoria di rischio del sistema di IA e implementando le necessarie misure di protezione.
- Creare documentazione tecnica per dimostrare la conformità e inviarla alle autorità per la revisione.
- Sviluppare il sistema di intelligenza artificiale per registrare automaticamente gli eventi per rilevare rischi e modifiche al sistema.
- Creare linee guida per gli operatori per garantire che i requisiti siano soddisfatti.
Sebbene gli operatori non abbiano gli stessi obblighi dei fornitori, la legge sull’AI impone loro di rispettare le linee guida sull’utilizzo, garantire la conformità organizzativa e tecnica e condurre una valutazione d’impatto sulla protezione dei dati prima di implementare sistemi di IA ad alto rischio.
Il mancato rispetto della normativa UE sull’IA può comportare sanzioni che vanno da 35 milioni di euro, o il 7% del fatturato globale, a 7,5 milioni di euro, o l’1,5% del fatturato, a seconda della gravità della violazione e delle dimensioni dell’azienda.
Gli obiettivi digitali dell’Europa e la strategia europea sui dati definiti per il 2030 mirano a promuovere una concorrenza leale e ad aumentare la trasparenza nei servizi online. Per le aziende, ciò significa che devono garantire che i loro processi supportino questi valori di protezione dei dati. Le leggi recentemente approvate, tra cui il Digital Services Act e il Digital Markets Act , sottolineano l’importanza della concorrenza leale e della trasparenza. Affrontando i processi interni e rivedendoli in una fase iniziale, sia i fornitori che gli utenti dei sistemi di intelligenza artificiale possono evitare multe e aumentare la fiducia dei consumatori. Migliora oggi stesso i tuoi processi di conformità facendo clic qui per iniziare.