skip to Main Content

ChatGPT, dopo l’Italia il Canada. Chi ha paura dell’IA?

Chat Gpt Open Ai Italia Canada

I dubbi e le preoccupazioni sulla protezione dei dati degli utenti di ChatGPT: dall’Italia al Canada passando per l’Irlanda, tutti i paesi che corrono ai ripari 

Dopo l’Italia anche il Canada ha dato uno stop a ChatGPT, il software di intelligenza artificiale relazionale capace di emulare il linguaggio naturale e di “colloquiare” con esseri umani. Proprio come il Garante italiano, anche il Garante per la privacy federale canadese ha annunciato l’avvio di un’istruttoria a carico di OpenAI, la start-up americana che ha sviluppato e gestisce il software.

DAL CANADA ARRIVA LO STOP A CHATGPT

“La tecnologia AI e i suoi effetti sulla privacy sono una priorità per il mio ufficio”, si legge sul portale dell’Office of the Privacy Commissioner of Canada. “Dobbiamo stare al passo con i rapidi progressi tecnologici e anticiparli, e questa è una delle mie principali aree di interesse in qualità di Commissario”, aggiunge il commissario per la privacy Philippe Dufresne. Proprio come l’indagine italiana anche quella canadese è stata avviata in risposta a una denuncia relativa alla raccolta, all’uso e alla divulgazione di informazioni personali senza consenso.

L’ISTRUTTORIA DEL GARANTE PER LA PRIVACY ITALIANO

Lo scorso 31 marzo il Garante per la privacy italiano aveva disposto la limitazione del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT. E contestualmente l’Autorità ha aperto un’istruttoria. Traduzione: gli utenti italiani non possono più accedere al software. Il garante è intervenuto perché lo scorso 20 marzo ChatGPT aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonamenti. “Il 20 marzo c’è stata una falla nei vostri sistemi che ha esposto i dati personali degli utenti e anche parte dei numeri delle carte di credito – ha detto Mira Murati, la Chief Technology Officer di OpenAi a Repubblica -. È stato un errore di una componente “open source” e quando ne siamo venuti a conoscenza abbiamo immediatamente disattivato ChatGpt per risolvere il problema. L’errore ha causato anche la visibilità delle informazioni relative ai pagamenti dell’1% degli abbonati a ChatGpt Plus attivi durante un arco di nove ore, non so dire se e quanti in Italia. I numeri completi delle carte di credito non sono stati visibili. Ora il problema è risolto e non c’è alcun rischio in corso per i dati degli utenti”.

INCONTRO TRA GARANTE PER LA PRVACY E OPEN AI

Intanto, nella serata del 5 aprile, c’è stato un incontro tra OpenAI e il Garante per la privacy italiano per superare il blocco della piattaforma nel nostro paese. All’incontro, in videoconferenza, a cui ha preso parte in apertura anche Sam Altman, CEO di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel. L’incontro non è stato risolutivo per lo sblocco della piattaforma ChatGPT ma OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha confermato la volontà di collaborare con l’Autorità italiana. Allo stesso tempo il Garante ha sottolineato come non vi sia alcuna pregiudiziale nei confronti dello sviluppo dell’AI ma solo la volontà di fare rispettare le norme poste a tutela dei dai personali dei cittadini italiani ed europei.

LE MOTIVAZIONI DELLO STOP A CHATGPT DEL GARANTE PER LA PRIVACY

Il provvedimento del Garante è motivato dalla mancanza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi che fanno funzionare la piattaforma. In sostanza la macchina impara a dialogare con gli umani “prendendo appunti” dalle informazioni immesse dagli utenti che la utilizzano. Quest’ultimi, però, non sanno di essere ascoltati dalla macchina. “Pensiamo che i nostri servizi siano conformi alla Gdpr e lavoriamo attivamente per ridurre i dati personali nell’addestramento di ChatGpt – ha aggiunto Mira Murati -. È importante che questi sistemi imparino i concetti che noi conosciamo, come il testo o i video, ma non per forza informazioni sui privati. Anche sulla trasparenza siamo conformi: facciamo sapere agli utenti come vengono elaborati i loro dati e forniamo l’informativa sulla privacy”.

DALL’IRLANDA ALLA FRANCIA, CHI SEGUE L’ESEMPIO DEL GARANTE PER LA PRIVACY ITALIANO

Secondo quanto riportato dalla Reuters, l’intervento del regolatore italiano potrebbe non restare isolato ancora per molto. “Le autorità di regolamentazione della privacy in Francia e Irlanda hanno contattato le controparti in Italia per saperne di più sulla base del divieto – si legge nell’articolo della Reuters -. La Germania potrebbe seguire le orme dell’Italia bloccando ChatGPT per problemi di sicurezza dei dati”. Anche un portavoce del Commissario irlandese per la protezione dei dati ha fatto sapere di star seguendo le orme del Garante italiano.

“Ci coordineremo con tutte le autorità di protezione dei dati dell’UE in relazione a questa questione”, dicono dall’Irlanda. L’autorità di regolamentazione della privacy in Svezia, invece, ha affermato di non avere intenzione di vietare ChatGPT né di essere in contatto con Garante italiano, mentre il regolatore spagnolo non ha escluso una futura indagine sebbene non abbia ricevuto alcun reclamo su ChatGPT.

LA PRESA DI POSIZIONE DEI CONSUMATORI EUROPEI SU CHATGPT

Dopo l’iniziativa del Garante per la protezione dei dati personali italiano, la Beuc (European Consumer Organization) ha chiesto a tutte le autorità statali per la privacy di valutare la gestione dei dati da parte di ChatGPT. “I consumatori non sono pronti per questa tecnologia. Non si rendono conto di quanto possa essere manipolatoria e ingannevole”, ha detto Ursula Pachl, vicedirettrice Beuc. La vicepresidente della Commissione europea Margrethe Vestager, invece, ha avuto un approccio più morbido. “Qualunque tecnologia utilizziamo, dobbiamo continuare a garantire le nostre libertà e proteggere i nostri diritti – ha precisato Vestager -. È per questo che non regoliamo le tecnologie di intelligenza artificiale, ma gli usi che se ne possono fare”.

LA LETTERA APPELLO DEI BIG DELLA TECNOLOGIA: PAUSA DI RIFLESSIONE DI ALMENO SEI MESI

La scorsa settimana 1100 figure di spicco del panorama tech e della ricerca, hanno firmato una lettera manifesto che invita alla cautela sullo sviluppo di qualsiasi tipo di test di intelligenza artificiale che sia più potente di GPT-4. Tra i firmatari ci sono il cofondatore di Apple, Steve Wozniak, Evan Sharp (Co-Founder di Pinterest), Chris Larsen (Co-Founder di Ripple), ingegneri e sviluppatori di Amazon, Meta e Google, Elon Musk, amministratore delegato e direttore tecnico di SpaceX, amministratore delegato di Tesla, proprietario e presidente di Twitter e fondatore, insieme a Sam Altman la stessa OpenAI. La richiesta dei firmatari di prendere una pausa di riflessione di almeno sei mesi prima di procedere con AI più potenti di GPT-4. “Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave – si legge nella lettera-manifesto -. Se tale pausa non potesse essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria”.

Quindi ben vengano gli stop del garante italiano e canadese. “Condividiamo molti dei timori della lettera – ha detto Mira Murati – , da anni discutiamo delle promesse e dei rischi dell’intelligenza artificiale con diversi gruppi e organi governativi. Anche noi siamo preoccupati per il rischio di un’accelerazione della tecnologia. Ma ci sono due aspetti da considerare. Il primo è che dopo aver terminato l’addestramento di ChatGpt4 abbiamo impiegato più di sei mesi per renderlo sicuro, prima di rilasciarlo al pubblico. Il secondo è che ora non stiamo addestrando Gpt 5, a differenza di quanto si dice nella lettera, e non abbiamo intenzione di addestrarlo nei prossimi sei mesi”.

ISCRIVITI ALLA NEWSLETTER
Back To Top