skip to Main Content

Europee, ecco come la Commissione Ue corre ai ripari contro la disinformazione

Ue Disinformazione

La Commissione Ue ha emanato le linee guida per contrastare la disinformazione di cui possono essere vittima le prossime elezioni europee: informazioni qualificate, alfabetizzazione mediatica ed elettorale e identificazione dei contenuti prodotti dall’AI

Una guida per contrastare la disinformazione. In vista dei tanti appuntamenti elettorali dell’anno, la Commissione europea corre ai ripari contro i rischi della disinformazione ed emana una guida, indirizzata alle VLOP alle VLOSE, per provare a contenere i rischi di proliferazione di notizie false e il loro impatto sulla qualità delle scelte elettorali dei cittadini europei.

COSA PREVEDE IL DIGITAL SERVICES ACT

Il “Digital Services Act” (regolamento (UE) 2022/2065) impone ai VLOP, i fornitori di piattaforme online di grandi dimensioni (le aziende che vantano più di 45 milioni di utenti attivi nell’UE), e ai VLOSE, i motori di ricerca online di grandi dimensioni, l’obbligo di effettuare valutazioni specifiche sui rischi connessi alle loro attività di cagionare “qualsiasi effetto negativo effettivo o prevedibile sul discorso civico e sui processi elettorali”, e di mettere in atto misure proporzionate ed efficaci di mitigazione del rischio. Inoltre, l’articolo 35, conferisce alla Commissione il potere di emanare orientamenti sulle misure di attenuazione del rischio che i fornitori di VLOP e VLOSE sono chiamati a rispettare in relazione a rischi specifici.

I RISCHI CONNESSI ALLA DISINFORMAZIONE

Sono tanti i fenomeni che possono impattare sul corretto svolgimento delle attività elettorali: dalla proliferazione di discorsi illegali di incitamento all’odio alla diffusione di contenuti estremisti, dalla disinformazione alle interferenze di potenze straniere, di informazioni straniere, fino alla diffusione di contenuti falsi, fatti passare per veri, generati dall’intelligenza artificiale generativa.

LE LINEE GUIDA DELLA COMMISSIONE UE CONTRO LA DISINFORMAZIONE: LE FONTI NORMATIVE

La Commissione, in vista delle numerose elezioni che si terranno nei paesi europei e delle elezioni del parlamento europeo del prossimo giugno, ha preparato una guida per attenuare gli effetti negativi della disinformazione sui processi elettorali. Le linee guida tiene conto del regolamento (UE) 2024/900 sulla trasparenza della pubblicità politica e del prossimo regolamento che introduce la “legge sull’intelligenza artificiale”. Inoltre, in linea con l’art. 103 del Regolamento (UE) 2022/2065, le linee guida possono essere una fonte di ispirazione anche per i fornitori di piattaforme online o motori di ricerca che non sono stati ancora designati come VLOP o VLOSE e i cui servizi comportano rischi simili.

L’ESEMPIO STATUNITENSE: LO STUDIO DELLA HARRIS SCHOOL OF PUBLIC POLICY DELL’UNIVERSITÀ DI CHICAGO

Il documento della Commissione Ue ricorda da vicino lo studio, della Harris School of Public Policy dell’Università di Chicago, Preparing for Generative AI in the 2024 Election: Recommendations and Best Practices Based on Academic Research, che ha indagato i pericoli che corre l’informazione, e dunque la democrazia, in vista delle prossime elezioni del 2024, nell’epoca dei sistemi di AI generativa.

COSA PREVEDONO LE LINEE GUIDA DELLA COMMISSIONE UE CONTRO LA DISINFORMAZIONE 

Il primo tassello delle linee guida riguarda il rafforzamento dei i processi interni ai VLOP e VLOSE. Le aziende potrebbero prendere in considerazione la formazione di team interni che, utilizzando dati, analisi e informazioni disponibili sui rischi specifici, possono mitigare i rischi di disinformazione prima, durante e dopo le elezioni. Il secondo punto riguarda la predisposizione di misure di mitigazione dei rischi specifiche per le elezioni e calate su ogni specifico contesto elettorale. Tra le misure proposte dalla Commissione troviamo:

  • iniziative di alfabetizzazione mediatica ed elettorale (collaborazione con media ed associazioni locali);
  • la promozione di informazioni ufficiali sui processi elettorali;
  • l’applicazione di strumenti che aiutano gli utenti a valutare l’affidabilità dei contenuti;
  • coinvolgimento degli influencers;
  • la chiara identificazione della pubblicità politica anche attraverso etichettature specifiche.

I RISCHI DI DISINFORMAZIONE CONNESSI AI CONTENUTI GENERATI CON L’AI

A seguire la Commissione passa in rassegna una serie di misure di mitigazione specifiche legate al contrasto della diffusione di contenuti prodotti da dall’AI generativa. In particolare, la Commissione suggerisce di utilizzare tecniche che rendano immediatamente riconoscibili i contenuti generati con l’AI come l’apposizione di watermark e l’identificazione di metadati, applicabili anche filmati. Impegnarsi affinché le informazioni testuali generate dai sistemi di IA si basino su fonti affidabili e, in ogni caso, controllare i contenuti prima di diffonderli.

LA COOPERAZIONE CON LE REALTÀ LOCALI E I CONTROLLI POST ELETTORALI

Il documento della Commissione suggerisce, inoltre, di cooperare con le autorità europee e nazionali e con la società civile (in particolare esperti e organizzazioni indipendenti) per stimolare lo scambio di informazioni prima, durante e dopo le elezioni. Infine, gli ultimi due punti suggeriti dalla Commissione riguardano l’adozione di misure di crisis management nel per rispondere ad eventuali incidenti nel corso del periodo elettorale e di valutare l’efficacia delle misure attraverso un controllo post-elettorale.

Leggi anche: Cosa contesta l’Ue a Alphabet, Apple e Meta e cos’è il Digital markets act

ISCRIVITI ALLA NEWSLETTER
Back To Top