skip to Main Content

L’economia dei dati ha bisogno di trasparenza

Flussi Dati Usa Ue

I dati appartengono alla persona e non alle aziende. Pubblichiamo l’intervista di Giusy Caretto a Giovanni Buttarelli, Garante europeo per la protezione dei dati, per la rivista Start Magazine

Nell’era della digital society e della digital economy i dati degli utenti stanno cambiando i business delle aziende: dai dati possono ricavare informazioni necessarie per meglio posizionare i prodotti sul mercato, per esempio, indirizzando gli acquisti. In realtà, l’utilizzo di una simile quantità di informazioni potrebbe portare anche grandi benefici agli individui e alla società nel suo complesso (almeno a lungo andare), ma la questione non è così semplice.

Ed ora, soprattutto dopo lo scandalo Cambridge Analytica che ha coinvolto anche Facebook, il social network più utilizzato al mondo, sembra diventata sempre più urgente la necessità di trovare il giusto equilibrio tra la grande quantità di dati raccolti dalle aziende, l’utilizzo che ne fa e il diritto fondamentale degli individui alla protezione dei propri dati personali.

Di questo abbiamo parlato con Giovanni Buttarelli, dal 2014 Garante europeo della protezione dei dati dal Parlamento europeo e dal Consiglio dell’Unione europea.

Negli ultimi anni l’evoluzione tecnologica ha fatto sì che ogni aspetto della nostra vita (o quasi) abbia subìto una trasformazione digitale. Ma questo ha anche portato le aziende che offrono servizi come comunicazione, giochi, salute a raccogliere un’enorme quantità di dati. A chi appartengono” queste informazioni?

È proprio questo il nodo centrale delle decisioni strategiche che vanno prese. Noi chiamiamo i dati “personali” perché appartengono alla persona. La privacy è tutelata in tutto il mondo. Ad oggi ci sono 127 Paesi che hanno una disciplina organica in questa materia, ma la protezione dei dati personali è altro.

La visione del modello predominante di business è convinta che questi dati siano tranquillamente negoziabili, salvo necessità di tutela di specifiche categorie, come quelle dei minori. Abbiamo dunque questa visione che porta a
ritenere che le informazioni siano delle aziende e che queste possano utilizzarle. Nel Trattato di Lisbona, però, come aveva già fatto il Codice Italiano del 2003, il Diritto fondamentale della Protezione dei dati personali, si ricorda che i
dati appartengono alla persona.

Possiamo dire che il possesso dei Big Data apre una nuova geografia dei poteri? Quali i confini?

Certamente sì. Attualmente il possesso dei dati è monopolio delle quattro organizzazioni GAFA, ovvero Google, Apple, Facebook ed Amazon. Ma presto ci sarà tra queste anche una società cinese o indiana. In occasione della 40esima Conferenza Internazionale della protezione dei dati e della privacy, che si tiene dal 22 al 26 ottobre, cercheremo di capire come il concetto di potere e sovranità si evolveranno.
I Big Data rappresentano un fenomeno positivo, la stessa Casa Bianca aveva pubblicato un documento in cui parlava della grande quantità di dati come opportunità. Sono convinto che non dobbiamo precludere l’evoluzione dei Big Data, che senza dubbio porteranno numerosi benefici anche per quanto riguarda la connettività e le smart city. Ma, allo stesso tempo, dobbiamo porci il problema di chi e in quanti gestiscono questi dati: si parla di decentralizzazione di internet per evitare che i Big Data siano nelle mani di pochi soggetti superpotenti nella posizione di poter scegliere di non condividere queste informazioni per fini collettivi e sociali. È un problema che va oltre i diritti della personalità.

Un’economia fondata sui dati a quali rischi ci espone?

Un’economia fondata sui dati pone dei rischi relativi alla concentrazione di queste informazioni e di esasperazione del monopolio. L’incidenza predittiva sui comportamenti delle persone apre la strada ad uno sbilanciamento ancora più marcato dei rapporti di forza.

Si pone il problema di chi usufruirà del dividendo digitale, ma non si potrà prescindere da un’economia fondata sui dati, diventati più importanti del petrolio: chi avrà la capacità di accumulare questi dati, sapendoli sfruttare attraverso l’intelligenza artificiale, ha il potere su scala mondiale. C’è un problema vero di redistribuzione di benefici dei Big Data e di una maggiore selettività e trasparenza sul modo in cui queste informazioni vengono utilizzate. Anche per evitare che ci siano dei condizionamenti che possono riguardare la discriminazione di prezzi o la profilazione delle persone, senza che le persone stesse capiscano che tipo di profilo circola su di esse in rete.

I Big Data possono rappresentare una minaccia alla democrazia?

Per questa domanda il caso Cambridge Analytica ha dimostrato che c’è un rischio quando non c’è una raccolta trasparente delle informazioni. Attraverso test e apparenti promozioni sono stati rubati dati di 270mila persone su scala mondiale: si tratta di miliardi di informazioni. È chiaro che anche attraverso una piccola app si possano alterare le regole del gioco e la partecipazione democratica. Come Garante europeo abbiamo adottato un parere per sollecitare, come ha fatto anche adesso la Comunità europea in una comunicazione approvata il 13 settembre, una serie di interventi per garantire il principio della parità di “armi”, perché anche il solo sospetto che una competizione elettorale possa essere alterata da meccanismi non trasparenti deve essere allontanata.

Il 25 maggio 2018 nei 28 Paesi dell’Ue è diventato operativo il Regolamento Generale sulla Protezione dei dati (GdpR), armonizzando le normative prima esistenti soltanto a livello nazionale. Basta questo nuovo regolamento a soddisfare in toto il bisogno di privacy?

Il regolamento GdpR non soddisfa a pieno le esigenze regolatorie in questa materia, manca
un tassello importante costituito dal regolamento e-privacy, che andrà a sostituire la direttiva e-privacy attualmente in vigore. C’è una serie di necessità di specificare meglio le regole sul piano operativo nel settore delle comunicazioni elettroniche, rispettando il principio della neutralità tecnologica e i principi generali. che valgono per tutti i settori che sono nel regolamento generale. Considero un successo della mia organizzazione il fatto che il regolamento generale non preveda più 45 regolamenti delegati, ma soltanto 21. Più della metà di queste previsioni originali della Commissione europea sono state
sostituite da linee guida flessibili, suggerimenti e raccomandazioni, best practices che possono essere varati dai garanti di tutta Europa attraverso dei meccanismi di consultazione, lasciando anche spazio al principio della accountability e quindi offrendo la possibilità di attuare degli adempimenti a seconda del contesto, permettendo allo stesso tempo un adeguamento di queste buone pratiche a seconda
dell’evoluzione della tecnologia altrimenti avremo sempre un approccio regolatorio in
ritardo rispetto a quello che invece è l’evoluzione delle nuove tecnologie.

L’approccio legislativo non è l’unica soluzione. Serve anche un approccio etico che possa mettere i Big Data al servizio dell’uomo. Quali i passi necessari in questa direzione?

Se anche noi avessimo un’adesione completa a tutte le regole del gioco che riguardano la privacy e la tutela dei consumatori, la disciplina antitrust, la disciplina audiovisiva, quelle delle comunicazioni elettroniche e delle elezioni elettorali e se anche tutte le autorità che separatamente sono preposte al rispetto delle regole in queste materie cooperassero attivamente fra loro non avremmo risolto i problemi del dividendo digitale che noi abbiamo fatto presente.

Stiamo costruendo una società completamente diversa, così come è stato fatto a cavallo della Seconda rivoluzione industriale, quando si è iniziato a parlare di dignità e rispetto delle persone: a fine ‘800 sono iniziate delle riflessioni sulle regole igieniche nei posti di lavoro e nelle abitazioni, c’è stato un grosso fenomeno di miglioramento delle condizioni basilari di vita, in cambio di questa trasformazione radicale che portò con le macchine a perdere molti posti di lavoro. Ora abbiamo la robotica, il machine learning, l’intelligenza artificiale, le macchine connesse a guida autonoma, avremo le smart cities e tutto questo va bene, ma noi dobbiamo capire anche quali sono i valori da seguire. Non tutto quello che è tecnicamente fattibile è anche moralmente sostenibile, quindi vogliamo capire attraverso questa conferenza che dovrebbe concludere la prima fase di questo dibattito internazionale, in cui saremo 800 persone da 81 Paesi per discutere e capire quali saranno le strategie migliori, provando ad avere un’etica condivisa su scala planetaria, per avere dei punti di riferimento che possano guidare all’evoluzione di questi principi.

ISCRIVITI ALLA NEWSLETTER
Back To Top