Il futuro ci prospetta una convivenza sempre più serrata con l’intelligenza artificiale. Come rimanere umani se deleghiamo la capacità di ragionamento alle macchine? Lo abbiamo chiesto all’ex rettore e professore dell’Università Luiss Andrea Prencipe, presente nel nuovo numero del quadrimestrale d Start Magazine (anno IX, n.3 novembre 2025-febbraio 2026), e che pubblichiamo qui in estratto
L’Intelligenza Artificiale sta trasformando il nostro modo di pensare, apprendere ed organizzare la società. Per affrontare consapevolmente questi cambiamenti serve sviluppare una nuova “capacità di governo” dell’innovazione tecnologica che sia in grado di integrare nuove competenze, visione critica e responsabilità etica.
È questo il cuore della riflessione del professor Andrea Prencipe, ex rettore dell’Università Luiss di Roma e tra i principali studiosi italiani di organizzazione e innovazione. Insieme a Massimo Sideri è autore de Il Cavaliere Artificiale (Luiss University Press, 2025), un saggio che — ispirandosi alla riflessione di Italo Calvino — esplora il rapporto tra tecnologia e società, con un focus sul ruolo crescente dell’IA.
In questa intervista approfondiamo le competenze chiave per un uso consapevole dell’Intelligenza Artificiale, le trasformazioni cognitive che essa innesca e l’impatto che sta già esercitando — e continuerà ad esercitare — sui paradigmi educativi, dalla scuola all’università.
Come possiamo preservare ciò che ci rende “gelosamente umani” mentre conviviamo sempre più con l’intelligenza artificiale?
Questa è la domanda delle domande. La riflessione che abbiamo offerto ne Il Cavaliere Artificiale ci incoraggia ad andare in una determinata direzione: valorizzare i nostri valori, i nostri tratti, abbracciando questa tecnologia dirompente. Ma — e qui emerge tutta la mia parzialità da professore — è necessario educare ragazzi e ragazze a interagire con questa macchina. Dobbiamo ripensare i modelli educativi di tutte le istituzioni dedicate alla formazione — dalla scuola fino all’università — ma anche i cosiddetti corsi di lifelong learning, ovvero di apprendimento permanente. Questo per sviluppare una disposizione ad imparare, ma anche a disimparare e, quindi, a puntare anche su meta-competenze e non solo competenze in senso stretto.
L’intelligenza artificiale è un’innovazione a tutti gli effetti, così come lo è stata l’elettricità, la macchina a vapore o il motore a scoppio. Queste innovazioni sono alla base delle rivoluzioni tecnologiche che, in termini tecnici, si definiscono anche paradigmi tecnologici. E, per definizione, un paradigma è una matrice di opportunità e di vincoli. Un paradigma ci dice che cosa è pensabile e cosa è fattibile. Per questo dobbiamo entrare nell’ottica che questa macchina ovviamente ci sostituirà in alcuni lavori — come hanno fatto prima altre macchine — ma, allo stesso tempo, ci permetterà di estendere le nostre competenze e abilità.
Quando abbiamo inventato la tecnologia ottica, non ci ha reso ciechi; al contrario, ha esteso la nostra capacità di vedere lontano o di osservare da vicino, a livello microscopico. L’intelligenza artificiale può avere anch’essa un aspetto aumentativo delle nostre capacità a patto che sia impiegata con consapevolezza. Insomma, questo sistema di nuove tecnologie ci offre una grande opportunità: ripensare ed estendere il nostro ruolo di esseri umani facendoci riflettere su quelle che sono le nostre dimensioni essenziali.
A questo riguardo, ne Il Cavaliere Artificiale, si parla di sviluppare nuove competenze per una convivenza ibrida, cioè dove l’IA non sia né servo né padrone. Se dovesse indicare una sola competenza chiave per una convivenza più “simbiotica”, quale sarebbe?
Una sola, questa è difficile. Direi si tratti di una competenza di governo, intesa come di direzione di marcia, che coinvolge sia lo sviluppo delle nuove tecnologie che la capacità di saperle interrogare e quindi addestrare di conseguenza. È solo con capacità di governo se questa tecnologia può diventare di declinazioni operative importanti. Bisogna imparare a saperla governare, evitare di utilizzarla come stampella, quanto, piuttosto, usarla come vera e propria estensione, anche diciamo così “collaborativa”, per quanto riguarda le nostre professioni.
Lei scrive che l’IA è una protesi come il cavallo lo era per il cavaliere medievale. Ma una protesi cambia anche il corpo di chi la indossa, in questo senso come sta cambiando il nostro sensorio, la mente e il nostro immaginario collettivo?
Purtroppo, non lo sappiamo ancora. È una tecnologia in continuo divenire, caratterizzata da cambiamenti molto rapidi. Sicuramente sta impattando anche su alcuni processi che noi pensavamo fossero soltanto nostri, come ad esempio l’apprendimento.
Nel libro facciamo riferimento agli studi di Walter Ong, Oralità e scrittura in particolare, dove ha proposto il concetto di “tecnologizzazione della parola”, e analizza la scrittura come “prima tecnologia” che ha modificato le modalità con le quali pensiamo. Lo stesso accade e — sta accadendo — con l’intelligenza artificiale. Qui vengo a quella che è la sua domanda. Il nostro modo di pensare sta cambiando, e il nostro modo di agire evolverà di conseguenza. Dobbiamo imparare a governarla proprio per evitare che venga utilizzata come stampella.
Nello scorso semestre ho fatto un esperimento con i miei studenti del corso di progettazione organizzativa: ho reintrodotto un esame parziale carta e penna ed un esame parziale orale, in aggiunta a un esame parziale che permetteva loro di utilizzare l’intelligenza artificiale. Con una richiesta: esplicitare a ogni passo l’algoritmo utilizzato, come parte integrante dell’esame, motivare criticamente ciascuna decisione: dall’accettazione di una risposta, alla definizione della domanda, il cosiddetto “prompt”. Al termine del corso ho chiesto agli studenti quale fosse stato il momento valutativo più difficile. Tutti hanno risposto quello con l’intelligenza artificiale. Questo perché tutti mi hanno confermato che l’esercizio li ha portati a ragionare su ogni passo, fornendo loro un’occasione preziosa per capire cosa significhi governare questa macchina particolarmente potente.
Molte aziende affidano all’IA parti crescenti di decisioni e operazioni. In quali ambiti dovrebbe rimanere solo uno strumento? Ci sono ambiti in cui crede possa prendere il sopravvento proprio in virtù del fatto che ci superi?
Le macchine su alcuni aspetti ci superano e ci supereranno sempre di più. Io non penserei mai di poter gareggiare con una Ferrari, e neanche con il calcolatore che utilizzavo quando ero studente del liceo scientifico. Il punto non è gareggiare con le macchine ma tornare a capire dinamicamente quali sono i nostri confini e, di conseguenza, ridefinire l’interfaccia, l’interazione uomo-macchina. Se abdichiamo il nostro pensiero — qui utilizzo un’immagine molto forte — facciamo la fine di Charlie Chaplin in Tempi Moderni: ci adattiamo alla velocità della macchina. Invece, noi dovremmo adottare la macchina.
Il punto è ancora una volta la nozione di governo dell’intelligenza artificiale che è più vicina alla nozione di adozione della tecnologia. Questo perché richiede una capacità di saperla configurare e coinvolgere attivamente anche nelle nostre attività, lavorative o meno. Quindi, per tornare alla sua domanda, il punto fondamentale non è tra noi e la macchina, ma è tra chi saprà utilizzare meglio questa intelligenza artificiale e chi non.
Nel libro proponiamo il concetto di “paradigma tecnologico” per sottolineare che l’IA è una matrice di grandi opportunità ma anche di grandi vincoli. La definizione di questi vincoli e di queste opportunità dipende fondamentalmente da noi. È per questo motivo che l’educazione e la formazione avranno un ruolo particolarmente rilevante. Infatti, se andiamo al mio ruolo di docente, questo significa modificare il modo in cui insegniamo sia in termini di contenuti che di modalità didattiche. È molto importante trasformare i modelli educativi da “modelli trasmissivi” a modelli educativi capaci di mettere al centro lo studente e renderlo co-generatore di conoscenze insieme al docente — i cosiddetti metodi investigativi. Ma, per essere co-generatore di conoscenze, bisogna affiancare al verno latino “instruere”, quello di “educare”.
L’ultima domanda è più strettamente filosofica. Immaginiamo una macchina intelligente nutrita di tutto lo scibile umano. Grazie al suo naturale distacco emotivo e all’enorme capacità di elaborazione dati, crede potrebbe arrivare a discernere un disegno, forse persino rispondere al quesito “perché esistiamo”? E se si, pensa che questa risposta potrebbe essere libera da bias culturali o religiosi — una sorta di verità laica — oppure anche l’IA finirebbe per ricalcare le mitologie umane con cui è stata nutrita?
L’IA viene nutrita, alimentata e addestrata con dati costruiti da noi esseri umani, di conseguenza, per definizione sarà sempre in qualche maniera curvata sui nostri pregiudizi, sui nostri bias, per quanto ci sia uno sforzo importante di oggettivazione dei dati. Per questo temo che una risposta oggettiva sarà difficile. Pensavo invece, all’utilizzo dell’IA nella diagnostica medica dove, analizzando dati tecnici, le IA non hanno curvature. Quindi, forse per ambiti in cui ci si muove nell’intelligenza artificiale predittiva, questa può darci delle risposte chiare, precise, probabilmente anche capaci di indicare una direzione di marcia importante. Se si pone invece la domanda all’IA generativa del perché esistiamo o dove stiamo andando possiamo invece scoprire altri aspetti della nostra idea di esistenza, come dicevo, temo sarà molto difficile avere una risposta scevra da curvature ideologiche o religiose.


