skip to Main Content

IA, ecco chi sono gli esperti che scrivono al Garante Ue. Intanto arriva la task force

Gdpr IA

Anche l’Europa inizia a prendere provvedimenti per tutelare i cittadini dai possibili rischi connessi allo sviluppo dell’intelligenza artificiale (IA). L’articolo di Maria Scopece

Dopo l’Italia anche l’Europa inizia a prendere provvedimenti per tutelare i cittadini dai possibili rischi connessi allo sviluppo dell’intelligenza artificiale.

LA TASK FORCE PER IL CONTROLLO DELL’IA DEL GARANTE EUROPEO

Il Comitato europeo per la protezione dei dati (EDPB) ha deciso di mettere in piedi una task force al fine di allineare le posizioni degli stati membri in materia di tutela dei dati personali utilizzati dalle piattaforme di intelligenza artificiale. L’EDPB è formato dai rappresentanti delle autorità nazionali per la protezione dei dati personali dell’UE e dal garante europeo della protezione dei dati (GEPD), ne fanno parte anche le autorità di vigilanza degli Stati EFTA-SEE (Islanda, Liechtenstein e Norvegia) ma senza diritto di voto.

I COMPITI DELLA TASK FORCE EUROPEA

La task force sarà interna all’EDPB, e sarà formata da esperti degli organismi che lo compongono. Il gruppo di lavoro, avvalendosi della collaborazione tra i vari organi, raccoglierà informazioni su iniziative in corso per l’applicazione del regolamento del Gdpr in merito all’addestramento di ChatGPT e delle altre intelligenze artificiali generative.

LA FORMULAZIONE DI UNA NORMATIVA TRASPARENTE

“I membri dell’EDPB hanno discusso della recente azione esecutiva intrapresa dal Garante per la protezione dei dati personali nei confronti di Open AI in merito al servizio Chat GPT – si legge nel comunicato diffuso dall’organizzazione – . L’EDPB ha deciso di lanciare una task force dedicata per promuovere la cooperazione e scambiare informazioni su possibili azioni di applicazione condotte dalle autorità di protezione dei dati”. L’obbiettivo dell’ente è creare politiche generali trasparenti per i cittadini UE senza, però, colpire aziende come OpenaAi o Microsoft, che hanno sviluppato le intelligenze artificiali più raffinate in circolazione.

L’APPELLO DEI CINQUANTA ESPERTI DI IA

Le azioni dell’EDPB rispondono, anche, alle sollecitazioni di più di cinquanta tra esperti e firmatari istituzionali che, con un appello condiviso, hanno chiesto ai legislatori europei di occuparsi diintelligenza artificiale (AI) per uso generale (Gpai) nei suoi regolamenti. Con questa definizione ci si riferisce all’intelligenza artificiale utilizzata da utenti singoli, non con finalità precise.

I FIRMATARI DELL’APPELLO

Tra i firmatari dell’appello troviamo singoli esperti e istituzioni. Hanno firmato il documento l’AI Now Institute, il Distributed AI Research Institute, la Mozilla Foundation, l’AlgorithmWatch, il Data & Society Research Institute, il Center for Technological Responsibility, la Brown University Center for Applied Data Ethics, la University of San Francisco AI & Emerging Tech Caucus, e la Harvard Kennedy School Aspiration Tech. Tra i singoli esperti, invece, troviamo: il Dr. Timnit Gebru, Fondatore e Direttore esecutivo del Distributed AI Research Institute, Amba Kak, Direttore esecutivo dell’AI Now Institute, Irene Solaiman, Policy Director, Hugging Face, il Dr. Mehtab Khan, Associate Research Scholar dello Yale Information Society Project, Maximilian Gahntz, Senior Policy Researcher della Mozilla Foundation, University of Cambridge, Mark Surman, Presidente e Direttore esecutivo della Mozilla Foundation, Frank Pasquale, Brooklyn Law School, Angela Müller, AlgorithmWatch, Os Keyes, University of Washington, il Dr. Jennifer King, Stanford Institute for Human-Centered Artificial Intelligence, il Dr. Roel Dobbe, Delft University of Technology Sacha Alanoca, Harvard Kennedy School e l’italiano Giulio Corsi, Leverhulme Center for the Future of Intelligence.

I CINQUE SPUNTI DI RIFLESSIONI DEGLI ESPERTI PER UNA REGOLAMENTAZIONE DELL’INTELLIGENZA ARTIFICIALE

Sono cinque i punti sui quali gli esperti hanno richiamato l’attenzione dell’UE. Prima di tutto “GPAI è una categoria espansiva” e affinché la validità delle normative UE siano valevoli anche nell’immediato futuro è necessario che sia pensata per essere applicato a una gamma di prodotti ampia e non “limitata a chatbot/large language models (LLMs)”. In seconda battuta i modelli GPAI comportano rischi intrinseci e hanno causato danni dimostrati e di ampia portata. Il fatto che questi rischi possano essere diffusi accresce la necessità di regolamentazione nella fase di sviluppo. Il terzo punto di attenzione verte sulla necessità di regolamentare la GPAI durante tutto il ciclo produttivo, non solo a livello di applicazione, per tenere di tutte le parti coinvolte.

Le aziende che sviluppano GPAI devono essere responsabili del trattamento dei dati sin dalle fasi di progettazione. Gli esperti sottolineano, inoltre, che apporre un disclaimer standard non può esentare gli sviluppatori dal rispetto dei dati, lasciando invece la responsabilità esclusiva agli utenti.  Infine, gli esperti chiedono che la legislazione sia di ampio respiro, non superficiale e che coinvolga attori della società civile, ricercatori e altri stakeholder non legati al business dell’AI.

ISCRIVITI ALLA NEWSLETTER
Back To Top