Skip to content

L’IA entra in Parlamento. Ma chi governa la sua dieta?

Mentre il Parlamento europeo tenta di fare chiarezza sulla dieta dell’IA generativa, sempre più affamata di sapere umano, in Italia (e non solo) la stessa tecnologia e’ già entrata nei luoghi della decisione pubblica per rendere più efficiente e trasparente il lavoro legislativo. Quali sono le virtù e quali i rischi?

Mancata trasparenza delle fonti, bias di cui non siamo pienamente consapevoli, allucinazioni e un governo umano dell’IA ancora agli albori sono solo alcuni dei temi (e dei timori) che attraversano panel, convegni e sedute parlamentari di mezzo mondo. Eppure anche in Italia l’intelligenza artificiale ha già mosso i primi passi nelle istituzioni parlamentari. Ed e’ proprio un dossier del Senato a raccontare gli strumenti oggi in uso e in sperimentazione a Palazzo Madama. I vantaggi sono evidenti, così come il tempo guadagnato; ma il cuore del documento emerge in filigrana: senza un governo umano il rischio non è solo tecnico ma democratico. 

L’EUROPARLAMENTO CHIEDE PIU’ TRASPARENZA

Il Parlamento europeo è intervenuto il 10 marzo 2026 sul rapporto tra intelligenza artificiale generativa e tutela dei contenuti. La risoluzione approvata — non vincolante, dunque senza effetti giuridici diretti, ma politicamente significativa— lo dice chiaro: l’IA generativa non può continuare a fagocitare contenuti mentre autori, editori e creatori assistono inermi. Perché finché non si sa davvero che cosa finisce nella dieta dei modelli resta quasi impossibile capire quali opere siano state usate, come e a quali condizioni. E non è solo una questione di diritti, la scarsa trasparenza sui dati di addestramento rende anche più difficile leggere fino in fondo l’origine di errori, distorsioni e bias che i modelli possono restituire. Per Strasburgo la posta in gioco e’ la tenuta economica dell’intero ecosistema culturale, che vale il 6,9 % del PIL dell’Unione. Da qui la richiesta di un elenco dettagliato delle opere usate per l’addestramento, di registri delle attività di raccolta dati, di strumenti efficaci per escludere le opere e di una remunerazione equa, anche per usi passati. La risoluzione si affianca cosi all’AI Act, già in vigore dall’agosto 2024 e destinato ad applicarsi a tappe fino al 2027, aggiungendo nuovi piloni a un cantiere normativo ancora in divenire… Che si intraveda la fine della zona grigia per il settore delle tecnologie avanzate? 

QUALI CHATBOT USANO I PARLAMENTARI ITALIANI

In Italia, intanto, tre prototipi sono stati presentati la scorsa estate alla Camera per supportare deputati e amministrazione parlamentare. Il primo è Norma, una chatbot specialistica competente in materia di legge e aggiornata costantemente con le informazioni dell’Osservatorio sulla legislazione della Camera dei deputati. Anche se il materiale su cui si basa è già pubblico e disponibile sul sito della Camera, Norma e’ in grado di raccogliere, ordinare e restituire in modo più leggibile dati e informazioni sull’attività parlamentare. 

Poi c’è MSE,  la Macchina Scrittura Emendamenti che, complice il nome, sembra un’invenzione di Gianni Rodari coeva della macchina per fare i compiti. Si tratta di un’applicazione messa a disposizione dei deputati e dell’amministrazione per la redazione assistita delle proposte emendative. E’ in grado di supportare la scrittura dei testi normativi nel rispetto delle regole di tecnica legislativa e della cosiddetta sintassi parlamentare, ovvero quel dedalo di richiami a norme e articoli che la stesura di questi atti richiede. 

Infine c’è DepuChat, ancora in fase sperimentale. Si tratta di una chatbot pensata per avvicinare i cittadini al lavoro delle istituzioni offrendo loro una finestra dialogica attraverso cui possano consultare l’attività dei parlamentari, dalle proposte di legge agli interventi in Aula e in Commissione. 

BIAS E VIRTÙ DELL’IA A PALAZZO MADAMA: L’ANALISI DEL SENATO 

Ma non e’ tutto oro quel che luccica. Il documento di analisi pubblicato dal Senato racconta insieme limiti e opportunità degli strumenti d’IA sperimentati o in via d’applicazione a Palazzo Madama. Si tratta di Linkoln per il riconoscimento dei riferimenti normativi, TeSeo per la classificazione dei disegni di legge, GEM per la gestione e l’analisi degli emendamenti, oltre a sistemi di trascrizione automatica e chatbot. Se da una parte il documento definisce una linea operativa improntata all’approccio “human in command”,  dall’altra insiste sui problemi di affidabilità che rendono necessario un governo umano costante. 

Il primo rischio riguarda le allucinazioni, cioè la produzione di contenuti “inventati”, ovvero “concetti o affermazioni non riconducibili alle informazioni su cui è stato addestrato il sistema”. Il secondo punto riguarda i bias. Il documento collega la questione soprattutto ai dati di addestramento, spiegando che uno dei principali limiti di questi modelli è legato “alla qualità (e trasparenza) dei dati” con i quali sono stati addestrati e alla “presenza potenziale di pregiudizi (bias)” che ne possono influenzare il funzionamento. Quindi il problema, per il Senato, non è solo che il modello sbagli, è che possa sbagliare in modo sistematico, opaco e difficile da individuare.

Infine, il terzo rischio ha a che fare con il potenziale abuso dello strumento, che il dossier definisce “ostruzionismo algoritmico”. Si tratta della possibilità, per mano umana, di usare i sistemi automatici per generare un’onda anomala di emendamenti e rallentare, se non paralizzare, il procedimento parlamentare.  Ed e’ qui che il discorso si allarga. Se l’IA può trasformarsi da supporto in sabotaggio e inceppare la macchina legislativa — vuoi perché non governata o perché piegata a fini antidemocratici — allora governarla in modo consapevole significa prima di tutto fare chiarezza sulla sua dieta. Solo così se ne possono conoscere bias e virtù ed evitare che sia lei a decidere cosa entra nel nostro piatto. 

ISCRIVITI ALLA NEWSLETTER
Torna su