Skip to content

AI Act, chi sono e cosa fanno gli esperti che hanno scritto a Meloni, Scholz e Macron

Intelligenza Artificiale

L’approvazione dell’AI Act è un’emergenza. A sostenerlo è la comunità scientifica italiana ed europea che ha inviato una lettera appello a Meloni, Macron e Scholz. 

La comunità scientifica italiana ed europea chiede, con una lettera-appello, alla politica di lavorare a una regolamentazione dell’Intelligenza Artificiale. La prossima primavera il Parlamento europeo si rinnoverà e il rischio è di non riuscire ad approvare per tempo l’AI Act, l’atto attraverso il quale l’UE prova a dare delle regole nell’impiego dell’AI generativa come chatGPT.

LA LETTERA APPELLO SULL’AI ACT INDIRIZZATA A GIORGIA MELONI, EMMANUEL MACRON E OLAF SCHOLZ

Nella lettera inviata alla presidente del Consiglio Giorgia Meloni, al presidente della Repubblica francese Emmanuel Macron e al cancelliere federale tedesco Olaf Scholz e alle istituzioni europee i firmatari, chiedono di procedere con urgenza all’approvazione di un atto che regoli l’impiego dell’Intelligenza artificiale. “Contro un approccio di autoregolamentazione, esortiamo tutte le parti coinvolte nel trilogo ad approvare l’Ai Act il prima possibile – si legge nella lettera -. È un errore pensare che la regolamentazione vada contro l’innovazione: è solo attraverso la regolamentazione e quindi una competizione leale che l’innovazione può prosperare, a vantaggio dei mercati, delle società e dell’ambiente”.

L’EUROPA RISCHIA DI PERDERE VANTAGGI COMPETITIVI SE NON DOVESSE APPROVARE L’AI ACT

I Paesi europei sono divisi tra quanti vogliono privilegiare la privacy dei cittadini e chiedono di predisporre regole precise, e chi vorrebbe garantire maggiore libertà di azione alle imprese per fare innovazione, convinti delle capacità di autoregolazione del mercato. Tra questi ultimi ci sono Italia, Francia e Germania e proprio ai rappresentanti politici di questi tre Paesi è rivolta la lettera-appello che vede come primi firmatari Luciano Floridi (Founding director del Digital Ethics Center, Yale University, e presidente del comitato scientifico di AI4People Institute) e Michelangelo Baracchi Bonvicini (presidente di Atomium-Eismd e presidente di AI4People Institute).

“La resistenza da parte di Francia, Italia e Germania riguardo alla regolamentazione dei modelli AI fondamentali mette a rischio la leadership dell’Ue nella regolamentazione dell’Ai – recita l’appello -. L’Ue è stata all’avanguardia, sostenendo regolamentazioni che assicurino che la tecnologia sia sicura ed equa per tutti. Ma questo vantaggio iniziale potrebbe essere perso se le restanti sfide normative non vengono affrontate in modo rapido ed efficace. Un’Ue indecisa perderà il suo vantaggio competitivo rispetto a paesi come gli Stati Uniti e la Cina. I cittadini europei rischiano di utilizzare prodotti AI regolamentati secondo valori e programmi non allineati ai principi europei”. La lettera è stata inviata anche alla Presidente della Commissione Europea, Ursula Von Der Leyen, alla Presidente del Parlamento Eurpeo Roberta Metsola, al Presidente della Spagna, Pedro Sanchez, al Commissario europeo per il mercato interno, Thierry Breton, e ai correlatori per l’AI Act al Parlamento Europeo DragoşTudorache e l’italiano Brando Benifei.

TUTTI I FIRMATARI DELLA LETTERA APPELLO PER L’APPROVAZIONE DELL’AI ACT

La trasversalità dell’iniziativa è testimoniata dalla nutrita schiera di professori universitari che hanno apposto la loro firma all’appello:

  • Professor Luciano Floridi, Direttore Istituto per l’Etica Digitale, Università di Yale, Presidente Comitato Scientifico AI4People Institute
  • Dott. Michelangelo Baracchi Bonvicini, Presidente Atomium-EISMD, Presidente AI4People Institute
  • Prof Raja Chatila, Professore Emerio di Artificial Intelligence, Robotics and IT Ethics Sorbonne University
  • Patrice Chazerand, Direttore Public Affairs, AI4People Institute, former Director Public Affairs Digital Europe
  • Prof Donald Combs, Vice Presidente and Dean, School of Health Professions Eastern Virginia Medical School
  • Dr Bianca De Teffe’ Erb, Data and AI Ethics Director, Deloitte
  • Prof Virginia Dignum, Professoressa in Responsible Artificial Intelligence, Umeå University – Member of the United Nations High-Level Advisory Board on Artificial Intelligence
  • Dr Rónán Kennedy, Associate Professor, School of Law, University of Galway
  • Dr Robert Madelin, Chairman Advisory Board AI4People Institute
  • Dr Claudio Novelli, Postdoctoral Research Fellow, Department of Legal Studies, University of Bologna International Fellow at the Digital Ethics Center (DEC), Yale University
  • Prof Burkhard Schafer, Professore di Computational Legal Theory, University of Edinburgh
  • Prof Afzal Siddiqui, Professore in the Department of Computer and Systems Sciences, Stockholm University
  • Prof Sarah Spiekermann, Chair of the Institute for IS & Society, Vienna University of Economics & Business
  • Prof Ugo Pagallo, Full Professor of Jurisprudence, Legal Theory, and Legal Informatics at the Department of Law, University of Turin
  • Prof Cory Robinson, Professore in Communication Design & Information Systems Linköping University
  • Prof Elisabeth Staudegger, Professore di Legal Informatics and IT Law (Information Technology Law), Head of the Legal and IT Department at the Institute for Legal Foundations,University of Graz
  • Prof Mariarosaria Taddeo, Professoressa di Digital Ethics and Defence Technologies Oxford Internet Institute, University of Oxford
  • Prof Peggy Valcke, Full professor of law & technology at KU Leuven and vice dean for research at the Leuven Faculty of Law & Criminology

SENZA UN AI ACT A RISCHIO LA PRIVACY DEI CITTADINI

Secondo gli esperti firmatari il rischio è che l’autoregolamentazione delle aziende non basti a tutelate i cittadini perché le aziende, anche le più virtuose ed eticamente orientate, potrebbero privilegiare i loro profitti rispetto alla sicurezza pubblica. “Le conseguenze sono gravi, inclusa la violazione della privacy, il pregiudizio, la discriminazione e minacce alla sicurezza nazionale in settori critici come la sanità, i trasporti e le forze dell’ordine – scrivono i professori -. Economicamente, le applicazioni Ai non regolamentate possono distorcere la concorrenza e le dinamiche di mercato, creando un campo di gioco disuguale in cui solo le aziende potenti e ben finanziate avranno successo”.

LA COMUNITÀ SCIENTIFICA ITALIANA CHIEDE AL GOVERNO DI LAVORARE PER L’APPROVAZIONE DELL’AI ACT

Anche la comunità scientifica italiana ha inviato al governo italiano una lettera-appello per stimolare un dibattito sull’approvazione dell’AI Act. Bersaglio di questa seconda lettera sono soprattutto i modelli di Intelligenza artificiale generativa, come ChatGPT. “Questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza – scrivono gli esperti -. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili, la facilità di uso per scopi manipolativi, la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono”. Insomma, il rischio è che l’assenza di regole “per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli”.

I PROFESSORI E LE ASSOCIAZIONI FIRMATARIE DELLA LETTERA-APPELLO DELLA COMUNITÀ SCIENTIFICA ITALIANA

I firmatari sono moltissimi, tra questi: Chiara Ghidini, Fondazione Bruno Kessler, Vice-presidente Associazione Italiana per l’Intelligenza Artificiale, Anna Monreale, Università di Pisa. Membro del partenariato PNRR “FAIR – Future AI Research” e WP leader dello Spoke 1 “Human-centered AI”. Vice-Coordinatrice Dottorato Nazionale Intelligenza Artificiale “Society”, Luca Oneto, Associate Prof. at University of Genoa, IEEE Senior, Best Italian Researcher under 40 in AI in 2019, Roberto Vezzani, Professore Associato, Università degli Studi di Modena e Reggio Emilia, già Direttore dell’Artificial Intelligence Research and Innovation Center, Claudio Tortorici, Lead of research at the Autonomous Robotics Research Center, Technology Innovation Institute, Abu Dhabi, UAE, Roberta Savella, Research Fellow, Istituto di Scienza e Tecnologie dell’Informazione “A. Faedo”, Consiglio Nazionale delle Ricerche, Pisa, Italia e Maurizio Tesconi, Senior Researcher, Institute of Informatics and Telematics (IIT), National Research Council of Italy (CNR).

A questi si aggiungono anche tante associazioni come: AIxIA (Associazione italiana per l’intelligenza artificiale), Cvpl (Associazione Computer vision, pattern recognition and machine learning), Ailc (Associazione italiana di linguistica computazionale), Fondazione Fair-Future artificial intelligence research, Laboratorio nazionale di artificial intelligence and intelligent systems del Cini, e Comitato di coordinamento del Dottorato nazionale in intelligenza artificiale.

– Leggi anche: L’umanità è a rischio? Ecco il retroscena sul caso Altman-OpenAI

ISCRIVITI ALLA NEWSLETTER
Torna su