L’intervista alla prof.ssa Emilia Palladino apparsa sul nuovo numero del quadrimestrale d Start Magazine (anno IX, n.3 novembre 2025-febbraio 2026).
Educare al discernimento, insegnare l’interdisciplinarietà, preservare il filtro umano, che una macchina non potrà mai rimpiazzare: è questa la ricetta della prof.ssa Emilia Palladino, il cui sguardo sulle IA comprende una prospettiva scientifica e una forte componente umanistica.
Con un’avvertenza: il processo di automatizzazione spinge la tecnologia a simulare risposte sempre più simili a quelle di un essere umano. Ma l’intelligenza artificiale, letteralmente, “non sa quello che dice”, non più di un distributore automatico qualunque.
Lei condivide con Papa Leone XIV una formazione nelle scienze umane e in quelle naturali. Lei ha studiato l’Universo, con una tesi sulla distribuzione delle galassie, e poi si è dedicata all’etica e dottrina sociale della Chiesa. C’è un filo rosso tra l’universo astrale e quello sociale? E in che modo questa doppia prospettiva scientifica e umanistica l’aiuta a guardare ai temi dell’Intelligenza Artificiale?
La risposta non può che essere personale: parto dai miei presupposti di esperienza. Io non potrei dire che sia così per tutti, però ho trovato un filo rosso: ho potuto individuare qualcosa che rispondesse anche alla mia necessità di capire perché avessi cambiato, come se guardassi le mie scelte dall’esterno. Uno degli aspetti più importanti è quello della complessità. Tanto è complesso l’universo nelle sue molteplici sfaccettature, tanto è complesso l’universo umano: aggiungendo interazioni psichiche, personali e sociali si complica tutto come in scatole cinesi.
Mentre lo studio dei fenomeni naturali — e io sono fisico — si confronta con processi complessi ma privi di intenzionalità, l’universo umano introduce relazioni simboliche e soggettività che complicano ulteriormente il quadro. Questo mi ha sempre affascinato e credo che la fisica mi abbia attirata per altre ragioni, non per quelle poi più profonde che mi hanno portato all’etica sociale.
La doppia formazione mi ha dato la capacità di comprendere sia il linguaggio scientifico sia quello umanistico a un livello vicino all’accademico. Questa doppia alfabetizzazione mi consente di leggere pubblicazioni e interventi sull’intelligenza artificiale, capirne la struttura tecnica e insieme le implicazioni umane ed etiche. Non è questione di ampiezza ma di profondità: capire che cosa fa l’IA e con che cosa abbiamo a che fare aiuta a interrogare le prospettive e a valutarle criticamente.
Nel testo “Laici e società contemporanea: metodo e bilancio a cinquant’anni dal Concilio” (ed Cittadella) lei sottolinea il ruolo dell’educazione al discernimento. Come possiamo interpretare concretamente questo principio oggi? Come dovremmo educare le nuove generazioni a convivere con l’IA?
Per me il discernimento è la base di tutto. Senza discernimento non c’è piena umanità: l’umano dipende anche dal modo in cui scegliamo di essere umani. Il discernimento, che fu il tema della mia tesi di dottorato e da cui è nato il libro, è il fondamento su cui dovremmo lavorare: la capacità di scegliere e decidere sulla base della propria persona, della propria storia, degli obiettivi e dell’etica che ci guidano, dando grande valore alla libertà personale.
L’arte di decidere si fonda sull’integrità. Una persona integra ha un discernimento integro; non può essere separata la coerenza morale dalla capacità di scegliere, che implica anche la rinuncia alle alternative. Questa è un’educazione: non nasce spontaneamente, va coltivata. Bisogna dare strumenti e insegnare come usarli.
Per i giovani diventa essenziale questa formazione: saper scegliere e decidere fra opzioni diverse, preferendo non la “migliore” in astratto ma quella che obbedisce a se stessi — un sé autonomamente pensante, non manipolato. Se l’autonomia del pensiero non è di base, avremo persone che si lasceranno guidare dall’IA come da qualunque altro soggetto. L’IA pone rischi di manipolazione: dipende da chi la costruisce, da come viene allenata, dai bias e dai filtri che vi si applicano. Se non si pongono filtri adeguati, l’IA può dire qualunque cosa e farla sembrare vera.
Sempre più persone si rivolgono all’IA come farebbero con un confidente o un amico e da sempre “l’affective computing” è uno degli ambiti di ricerca più stimolanti per gli informatici di tutto il mondo. La grande sfida è quella di realizzare macchine in grado di provare e suscitare emozioni. Crede che l’IA possa avere un ruolo nell’ambito dell’affettività e delle relazioni umane? Se sì, con quali opportunità e con quali rischi?
Io spero proprio di no: sarebbe troppo. Il problema è su due livelli. Da una parte c’è un vuoto sociale e culturale nella dimensione emotiva e affettiva della vita umana; delegare questo vuoto all’IA significa non affrontare il problema. L’esempio tragico del ragazzo che sembra sia stato istigato al suicidio dopo interazioni con un’IA mostra quanto sia grave lasciare sole persone vulnerabili davanti a bot capaci di convincere.
Tecnicamente siamo lontani dal fatto che una macchina provi affetto: l’IA generativa ha enormi capacità di assemblare testo e quindi può simulare interesse affettivo, ma si tratta solo di un’emulazione statistica basata sui testi con cui è stata allenata. Se la nutriamo con tutti i modelli del romance, l’IA impara a interloquire con quelle categorie. Questo non significa che possa piangere o provare emozioni né che comprenda ciò che dice; siamo noi, con i nostri filtri, ad attribuirle significato.
È importante sottolineare questo aspetto, perché c’è un grande inganno intorno al tema: l’intelligenza artificiale non capisce quello che dice. Semmai genera qualcosa di simile a ciò che ci si aspetta di ricevere nel momento in cui le si rivolgono determinate domande: in realtà è solo analogia ma il rischio è quello di attribuire all’intelligenza artificiale poteri che non ha e di crederle come si crede a una persona.
Arriviamo a questo punto al tema della coscienza. L’Intelligenza artificiale sarà in grado di sviluppare qualcosa di simile alla coscienza umana?
No, assolutamente no. Da quel che vedo e dall’uso che ne ho fatto, l’IA non costruisce la complessità necessaria al pensiero cosciente e alla coscienza morale. Parlare di “coscienza dell’IA” è pericoloso e spesso equivale a diffondere una colossale fake news: attribuire coscienza alla macchina sottrae responsabilità alle persone e semplifica scelte complesse in un contesto sociale già polarizzato. Esternalizziamo quello che dovrebbe essere il nostro pensiero critico.
Con la diffusione dell’AI in ambiti sempre più diversi, serve un processo partecipato in cui diversi attori sociali contribuiscono a valutare rischi e opportunità. In che modo l’interdisciplinarietà nell’uso di strumenti di AI può declinarsi per arrivare a decisioni etiche condivise?
L’uso dell’intelligenza artificiale generativa di per sé è semplice, l’importante è imparare il prompting. Però quando strumenti di IA vengono impiegati in ambiti più strutturati come quello aziendale, lì credo che serva l’aspetto dell’interdisciplinarietà. Se l’ambito è sensibile, come in campo sanitario, giudiziario o amministrativo, servono team interdisciplinari che valutino sia l’uso dello strumento sia i risultati.
Prendiamo per esempio un’ipotetica IA utilizzata per stabilire la pena da comminare a chi compie un reato: non può essere lasciata da sola, serve il filtro umano, disciplinare e interdisciplinare. E non si tratta solo di filtri giudiziari: si tratta di comprendere anche quelli psicologici, sociali, filosofici, se vogliamo.
Si parla anche di IA come primo filtro per scremare pratiche o segnalare casi, ma se quel filtro decide chi viene visto e chi no perdiamo la complessità della persona: l’esito può travisare la realtà e togliere responsabilità sociale.
Se dovesse immaginare l’AI tra vent’anni, quale contributo spera possa dare all’umanità? Intravede rischi che oggi possiamo prevenire?
Se il processo continua, fra vent’anni avremo errori sempre più piccoli e risposte più puntuali: il progresso tende a minimizzare l’errore. Ci saranno benefici concreti in efficienza, diagnosi tempestive e supporto a persone con disabilità. Però risposte più adeguate non implicano che l’IA “sappia” quello che dice: la separazione tra output e origine rimane la stessa di quella di un distributore automatico di bevande.
Da questo punto di vista noi siamo immersi in intelligenza artificiale da quando è uscito il computer, quindi parliamo degli anni Cinquanta, o Quaranta se consideriamo la macchina di Turing. Quello che è cambiato è la possibilità di vedere il testo e poter interloquire in forma verbale con la macchina. Perciò mi aspetto che il processo diventi sempre più automatizzato e meno riconoscibile, col rischio che la società accolga i contenuti dell’IA come se fossero detti da una persona vera e perda la capacità critica.
Personalmente ho scelto di non usare ChatGPT nella stesura di un libro per non avere il dubbio che una parte del mio pensiero fosse mediata dalla macchina: volevo che fosse “poco, brutto, ma mio”. Aggiungo: altrove si comincia a richiedere l’etichettatura dei testi prodotti con IA; in Italia questa attenzione normativa è meno diffusa, ma probabilmente a un certo punto andrà indicato.


