Civili intrappolati e italiani evacuati da Aleppo, in Siria, mentre c'è chi teme una nuova…
Cosa prevede l’AI Act dell’Ue, tempi e modi di applicazione
Tutto sul regolamento Ue sull’intelligenza artificiale, dai limiti ai controlli biometrici alle multe
Manca ancora qualche altro piccolo passo e l’AI Act poi diventerà legge. Dopo l’approvazione del Parlamento europeo, la normativa, prima al mondo sull’intelligenza artificiale, deve ancora essere sottoposta alla verifica finale dei giuristi-linguisti e dovrebbe essere adottata definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Il regolamento sarà applicabile a due anni dall’entrata in vigore, ad eccezione delle norme sui divieti (applicabili dopo 6 mesi), sui codici di buone pratiche (9 mesi), sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi). Il regolamento detta una serie di obblighi a fornitori e sviluppatori di sistemi di Intelligenza artificiale in base ai diversi livelli di rischio identificati. Eccoli nei dettagli, riportati in una scheda dell’Ansa.
I DIVIETI
Riguardano le pratiche di IA che comportano un rischio inaccettabile per i diritti fondamentali. Sono inclusi i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; le pratiche di polizia predittiva.
SISTEMI DI IDENTIFICAZIONE BIOMETRICA
In alcune situazioni specifiche espressamente previste dalla legge le forze dell’ordine potranno fare ricorso ai sistemi di identificazione biometrica, altrimenti vietati. L’identificazione in tempo reale potrà essere usata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa.
SISTEMI AD ALTO RISCHIO
Sono quelli con potenziale danno significativo a salute, sicurezza, diritti fondamentali, ambiente, democrazia. Obbligatoria in questi casi una valutazione d’impatto sui diritti fondamentali. I cittadini potranno presentare reclami e ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio con un impatto sui loro diritti.
INTELLIGENZA ARTIFICIALE GENERATIVA
Obblighi di trasparenza per sistemi e modelli di IA generale (Gpai), come GPT alla base di ChatGPT, inclusi il rispetto della legge su copyright e la sintesi su contenuti usati per l’addestramento. Obblighi più stringenti per modelli Gpai ad alto impatto con rischio sistemico, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica.
SOSTEGNO ALL’INNOVAZIONE
La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.
SANZIONI
A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe che possono andare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato globale.