skip to Main Content

Cosa prevede l’AI Act dell’Ue, tempi e modi di applicazione

Ai Act

Tutto sul regolamento Ue sull’intelligenza artificiale, dai limiti ai controlli biometrici alle multe

Manca ancora qualche altro piccolo passo e l’AI Act poi diventerà legge. Dopo l’approvazione del Parlamento europeo, la normativa, prima al mondo sull’intelligenza artificiale, deve ancora essere sottoposta alla verifica finale dei giuristi-linguisti e dovrebbe essere adottata definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

Il regolamento sarà applicabile a due anni dall’entrata in vigore, ad eccezione delle norme sui divieti (applicabili dopo 6 mesi), sui codici di buone pratiche (9 mesi), sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi). Il regolamento detta una serie di obblighi a fornitori e sviluppatori di sistemi di Intelligenza artificiale in base ai diversi livelli di rischio identificati. Eccoli nei dettagli, riportati in una scheda dell’Ansa.

I DIVIETI

Riguardano le pratiche di IA che comportano un rischio inaccettabile per i diritti fondamentali. Sono inclusi i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; le pratiche di polizia predittiva.

SISTEMI DI IDENTIFICAZIONE BIOMETRICA

In alcune situazioni specifiche espressamente previste dalla legge le forze dell’ordine potranno fare ricorso ai sistemi di identificazione biometrica, altrimenti vietati. L’identificazione in tempo reale potrà essere usata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa.

SISTEMI AD ALTO RISCHIO

Sono quelli con potenziale danno significativo a salute, sicurezza, diritti fondamentali, ambiente, democrazia. Obbligatoria in questi casi una valutazione d’impatto sui diritti fondamentali. I cittadini potranno presentare reclami e ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio con un impatto sui loro diritti.

INTELLIGENZA ARTIFICIALE GENERATIVA

Obblighi di trasparenza per sistemi e modelli di IA generale (Gpai), come GPT alla base di ChatGPT, inclusi il rispetto della legge su copyright e la sintesi su contenuti usati per l’addestramento. Obblighi più stringenti per modelli Gpai ad alto impatto con rischio sistemico, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica.

SOSTEGNO ALL’INNOVAZIONE

La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.

SANZIONI

A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe che possono andare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato globale.

Leggi anche: Cos’è il Media Freedom Act (e perché non piace molto a FdI e Lega)

ISCRIVITI ALLA NEWSLETTER
Back To Top