Skip to content

Disinformazione: i centri più pericolosi sono in Russia, Cina e Iran. Parla Mattia Caniglia (Atlantic Council)

Mattia Caniglia

La disinformazione rischia di inquinare il dibattito politico tra i cittadini chiamati alle urne. I casi di Russia, Cina e Azerbaigian

 Dall’Europa, all’Asia, alle Americhe, nel 2024 centinaia di milioni di cittadini sono stati chiamati e saranno chiamati alle urne. A novembre i cittadini statunitensi sceglieranno il prossimo presidente degli Stati Uniti d’America, un’occasione ghiotta per le centrali della disinformazione per orientare e inquinare il dibattito politico.

Lo sviluppo e la relativa economicità degli strumenti di intelligenza artificiale richiedono e stimolano riflessioni circa il loro possibile impiego al servizio della produzione e diffusione di fake e disinformazione.

 Al Meeting di Rimini ne abbiamo parlato con Mattia Caniglia, ricercatore dell’Atlantic Council e relatore del convegno “Combattere la disinformazione”.

 Quanto è rischioso l’impiego di strumenti di Intelligenza Artificiale nelle competizioni elettorali?

Oggi il pericolo arriva più dalle cheap fake che dalle deepfake.

Qual è la differenza?

Le deep fake sono immagini realizzate in maniera straordinariamente accurata mentre le cheap fake sono molto facili da riconoscere come false.

Perché, quindi, sono più pericolose?

Perché è semplice realizzarle e molto spesso sono rilanciate in momenti cruciali, di crisi o di hype, all’interno del discorso politico nel paese in cui si svolge l’evento elettorale. Di conseguenza, proprio perché c’è hype e le persone, gli elettori, non si riservano il tempo per controllare la veridicità delle informazioni, c’è il rischio che si diffondano velocemente. L’intelligenza artificiale, anche generativa, è solo uno strumento, tutto dipende da come viene utilizzata.

Quali sono i rischi maggiori, legati all’uso di strumenti di intelligenza artificiale, nel presente e nel prossimo futuro?

Nei prossimi anni andremo incontro a una serie di problematiche legate a quella che in inglese si chiama weaponization of loneliness. Cioè la possibilità di sfruttare la solitudine come un’arma. Faccio un esempio: nelle ultime elezioni a Singapore il Partito comunista cinese aveva predisposto degli uffici che chiamavano a casa i cittadini per cercare di influenzare la loro opinione sul candidato che Pechino riteneva più favorevole alle sue politiche.

La possibilità che queste attività siano svolte da un bot, da un’intelligenza artificiale è vicinissima. In questo momento negli Usa ci sono candidati che si stanno affidando a election assistant virtuali per i propri siti internet ma arriveremo al punto in cui strumenti di intelligenza artificiale saranno in grado di chiamarci a casa o interagire con noi sui social per lunghi periodi. Questo rientra nella weaponization of loneliness. Non sta ancora succedendo ma siamo molto vicini.

Nel corso del suo intervento nell’ambito del convegno “Combattere la disinformazione”, lei ha posto l’attenzione sulla differenza tra il contenuto veicolato e la strategia, i mezzi utilizzati per diffondere contenuti di disinformazione. Ce lo spiega meglio?

Questa è anche la ratio del Foreign interference and information manipulation dell’Unione europea. Se noi ci focalizziamo sul contenuto, questo rapidamente diventa politico e, se diventa politico, è complicato, rispetto alla nostra struttura di valori, decidere cosa sia accettabile e cosa no.

Chiaramente la verità è osservabile ma a volte servono molti anni per scoprirla, in Italia lo sappiamo bene. Il focus si deve spostare sulle modalità perché sono quelle che lasciano le digital breadcrumbs, perché è l’attività inautentica che lascia quelle impronte e che, grazie alla scienza digitale forense, riusciamo a rintracciare. Dunque, non è tanto il contenuto della comunicazione ma se quel contenuto viene veicolato grazie a strutture e comportamenti che vengono definiti e coordinati in maniera inautentica. Questo significa che non sono delle persone vere a condividere contenuti sui social media ma bot coordinati da una struttura o da un gruppo di persone, come nel caso delle operazioni di informazioni gestite dai servizi russi o cinesi.

Ci fa qualche esempio?

Sì. Nel primo caso possiamo ricordare che poco prima dell’invasione dell’Ucraina da parte della Russia è stata impostata una campagna di disinformazione che serviva a preparare la popolazione del Donbass all’arrivo delle truppe russe. All’interno di questa campagna venne diffusa la notizia, falsa, della crocifissione di bambini russofoni da parte dell’esercito di Kiev. Ecco quella notizia è diventata virale in Donbass grazie all’utilizzo di una serie di account non autentici che il Cremlino aveva preparato. Una cosa simile ha fatto la Cina per allontanare da sé le responsabilità nell’ambito della pandemia da Covid 19. In quel caso la notizia veicolata attribuiva la diffusione del coronavirus a un contingente americano arrivato in Cina per le olimpiadi militari. Ecco concentrarci sul metodo e non sul merito ci permette di metterci al riparo dalla “polizia della verità”, incompatibile con le nostre società ma, allo stesso tempo, di difenderci dalla disinformazione.

Dove si trovano le maggiori centrali di disinformazione?

In Russia e in Cina ma anche in Iran e, recentemente, anche l’Azerbaigian. Quest’ultimo, per rifarsi sulla Francia per il suo sostegno all’Armenia nell’ambito del conflitto del Nagorno Karabakh, ha lanciato una campagna di disinformazione in Nuova Caledonia dove si votava il referendum che chiedeva ai cittadini di scegliere se continuare a far parte della Francia. Una campagna che ha sortito effetti importanti, portando anche a disordini per le strade della Nuova Caledonia. E poi ci sono gli attori non statali, terroristici, come Hamas che ha condotto azioni di disinformazione online.

Ci sono centrali di disinformazione anche nei paesi occidentali?

Mi sento di escluderlo. Non è l’approccio dell’occidente, per lo meno non più dalla caduta del Muro di Berlino.

ISCRIVITI ALLA NEWSLETTER
Torna su