Intelligenza artificiale: un rischio non sottoporla al controllo della politica. La richiesta arriva dall’Ad di Open Ai, Sam Altman. Intanto L’Ue si avvia a varare il suo suo AI Act
Un’agenzia sovranazionale e intergovernativa come quella che governa l’energia atomica (Agenzia Internazionale per l’Energia Atomica). È questa la proposta che arriva da Sam Altman, cofondatore e Ad di Open AI, l’azienda che insieme a Microsoft ha sviluppato ChatGpt. L’occasione è stata la partecipazione, in videocall, al World Government Summit di Dubai dove ha sottolineato le sue preoccupazioni, da insider, circa la proliferazione di soluzioni di intelligenza artificiale.
I RISCHI DELL’INTELLIGENZA ARTIFICIALE: LE DISUGUAGLIANZE SOCIALI
Le disuguaglianze sociali, che potrebbero derivare dalla diffusione di strumenti di intelligenza artificiale, sono in cima alle preoccupazioni di Altman. “Ci sono alcuni scenari facili da immaginare in cui le cose potrebbero andare davvero male – ha detto l’AD di OpenAI -. Sono molto più interessato ai sottili disallineamenti sociali che potrebbero, senza particolari intenzioni, creare effetti terribili”.
LA NECESSITÀ DI REGOLAMENTARE L’INTELLIGENZA ARTIFICIALE SECONDO ALTMAN (OPEN AI)
L’Ad di Open AI ha ribadito quanto sia importante dare delle regole allo sviluppo dell’AI. Ma non solo. Nel suo discorso ha sottolineato che a guidare il processo normativo non debbano essere le aziende ma la politica. “Siamo ancora in una fase di grande discussione, e questo va bene – ha spiegato Altman -. Penso che siamo ancora in un momento in cui il dibattito è necessario e salutare, ma a un certo punto, nei prossimi anni, credo che dovremo passare a un piano d’azione con un reale consenso a livello mondiale”. Questione molto spinosa che, se calata nella realtà italiana, lascia tante preoccupazioni. Non sono molti, infatti, gli esperti di intelligenza artificiale che siedono in Parlamento.
ALTMAN (OPEN AI): LA SANDBOX NORMATIVA DEGLI EMIRATI ARABI UNITI
Altman è andato oltre nel suo discorso, arrivando a proporre una sandbox normativa negli Emirati Arabi Uniti. Un sandbox è una sabbiera, un recinto con la sabbia dove si fanno giocare i bambini per permettere loro di sperimentare in sicurezza. In questo caso il sandbox, uno spazio, un contenitore sicuro, servirebbe alle per sperimentare sotto il controllo di un’autorità di vigilanza. “Penso che, per una serie di motivi, gli Emirati Arabi Uniti sarebbero pronti a essere leader nelle discussioni su questo”, ha detto Altman.
LE RELAZIONI TRA OPEN AI E GLI EMIRATI ARABI
Tra questi motivi trovano spazio anche le fitte relazioni che intercorrono tra Open Ai e gli Emirati Arabi. G42, una società di intelligenza artificiale con sede ad Abu Dhabi, ha una partnership con l’azienda di Altman, con la quale sarebbe al lavoro per la produzione di chip avanzati per l’intelligenza artificiale (cosa che faciliterebbe l’affrancamento da Nvidia). L’azienda emiratina potrebbe partecipare con 8-10 miliardi di dollari. Inoltre, nel 2017, gli Emirati si sono dotati di un ministero dedicato all’intelligenza artificiale, nel 2019 hanno elaborato una strategia nazionale per lo sviluppo dell’AI. Tuttavia, dal punto di vista normativo gli Emirati Arabi hanno ancora strada da percorrere.
L’AI ACT EUROPEO: SÌ DELLA COMMISSIONE, MANCA SOLO IL VOTO DELLA PLENARIA
In Europa, invece, sta per andare in porto la prima legge quadro sull’Intelligenza Artificiale, l’AI Act. Una norma quadro che si propone di normare gli obblighi di sicurezza e trasparenza che dovranno rispettare gli strumenti di Intelligenza Artificiale e che si baseranno su una scala di rischio di quattro livelli: minimo, limitato, alto e inaccettabile. Il testo della norma, che ha ricevuto il voto all’unanimità dal Consiglio europeo, ha ricevuto l’ok in Commissione per il Mercato interno e la protezione dei consumatori (Imco). L’approvazione definitiva dovrebbe arrivare in sessione plenaria il prossimo 10 e 11 aprile. Il Regolamento, che deriverà da questa norma, sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore. Ci saranno, però, delle eccezioni: i divieti di pratiche proibite entreranno in vigore dopo 6 mesi, i codici di condotta dopo 9 mesi, le norme generali sull’AI dopo 12 mesi mentre e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.