skip to Main Content

L’uso dell’Intelligenza artificiale nella giustizia. I principi della Carta etica europea

Intelligenza Artificiale

L’approfondimento di Luca Martino sull’applicazione dell’intelligenza artificiale nei sistemi di giustizia

Sempre più spesso si sente parlare di intelligenza artificiale (IA) applicata in vari settori: dalla medicina, alla difesa, ai trasporti, a quello della produzione a livello industriale di robot umanoidi ossia macchine in grado di aiutare l’uomo nei lavori più disparati e per questo ci si è chiesti se l’intelligenza artificiale possa trovare qualche utile applicazione anche nel settore della giustizia.

Sulla questione la Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa ha emanato la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti.

I PRINCIPI DELLA CARTA ETICA

La Carta etica è un documento di eccezionale rilevanza in quanto è la prima volta che a livello europeo, preso atto della “crescente importanza della intelligenza artificiale (IA) nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia”, vengono individuate alcune fondamentali linee guida, alle quali dovranno attenersi “i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA”.

In particolare, la Carta etica enuncia i seguenti principi: il principio del rispetto dei diritti fondamentali; il principio di non discriminazione; il principio di qualità e sicurezza; il principio di trasparenza; il principio di garanzia dell’intervento umano

IL PRINCIPIO DI GARANZIA DELL’INTERVENTO UMANO

L’ultimo principio, noto come principio “under user control” è quello specificamente finalizzato a “precludere un approccio deterministico” ed “assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate”.

L’enunciato implica, dunque, la più ampia possibilità di utilizzo della IA nell’ambito della giustizia penale, ma a due condizioni: che gli operatori siano soggetti qualificati all’uso del sistema di IA e che ogni decisione sia sottoposta al controllo umano (ad esempio, da parte del giudice utilizzatore del sistema automatizzato).

Lo scopo è evitare quello che la Carta etica definisce “approccio deterministico”, vale a dire il rischio di un eccessivo automatismo o standardizzazione delle decisioni.

QUALI APPLICAZIONI DELL’IA NELLA GIUSTIZIA

A seconda della diversa tipologia dei dati inseriti nell’elaboratore (input), degli algoritmi di apprendimento utilizzati dal sistema (learning algorithms) e del risultato finale del procedimento di elaborazione (output), sono ipotizzabili tre diversi modi attraverso i quali la tecnologia delle machine learning può agevolare il lavoro degli operatori del diritto e, conseguentemente, rendere più efficiente la giustizia mediante: l’analisi di documenti e la predisposizione di atti; la previsione dell’esito di una causa; la formulazione di giudizi, seppure sotto il controllo umano.

ANALISI DOCUMENTI E PREDISPOSIZIONE ATTI

La prima modalità, consistente nella analisi e predisposizione automatica di atti e documenti, trova preferibilmente applicazione nel campo del diritto civile e commerciale, segnatamente quando si tratta di analizzare documenti o predisporre atti per lo più ripetitivi.

Non è da escludere che possa essere utilizzata anche in ambito penale, soprattutto quando occorre analizzare una mole notevole di documenti ad esempio nel caso in cui si renda necessario effettuare dei calcoli per determinare il limite oltre il quale gli interessi pattuiti in contratti di mutuo sono da ritenersi usurari.

IL CASO DI GENOVA

Nel caso dell’indagine relativa al crollo del ponte Morandi, la Procura di Genova ha deciso di utilizzare un software dell’FBI, dotato di algoritmi particolarmente complessi, con l’obiettivo di incrociare tutti i dati raccolti (corrispondenti a circa 60 terabyte) con quelli dei dispositivi elettronici sequestrati, con la documentazione tecnica ed i pareri dei consulenti sia del pm che della difesa.

APPLICAZIONE PREDITTIVA

Una seconda modalità applicativa della intelligenza artificiale alla giustizia è quella cd. “predittiva”, consistente nella capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o anche su base logica.

Tale capacità, a seconda della tipologia dei dati introdotti nell’elaboratore, può essere utilizzata come strumento di prevenzione della criminalità, come strumento integrativo dell’attività del giurista per l’interpretazione della legge e l’individuazione degli argomenti a favore della tesi che si intende sostenere e nella capacità di “prevedere” l’esito di un giudizio.

LE CRITICHE

Suscita non poche perplessità l’idea che un sistema automatizzato di elaborazione giurisprudenziale possa, in qualche misura, condizionare il giudice, inducendolo ad applicare la soluzione proposta dalla macchina senza tener conto delle particolarità del caso concreto.

AFFIDABILITÀ SCIENTIFICA

Preoccupazioni riguardano in primo luogo l’affidabilità scientifica del risultato che l’algoritmo restituisce, nell’ipotesi in cui il programmatore compia un errore di progettazione destinato, necessariamente, ad influenzare il risultato dell’operazione computazionale. Ovvero che il sistema, benché correttamente programmato, si riduca ad una gestione automatizzata di affermazioni cristallizzate e, in particolare, che la predizione non abbia più un valore “indicativo”, ma quasi “prescrittivo”, con il conseguente rischio che il giudice, nel decidere, finisca per adagiarsi acriticamente sulle proposte dell’algoritmo.

DITTATURA DEL PRECEDENTE

Per alcuni ancora più preoccupante è che, con questo sistema di giustizia digitale aprioristicamente basata sulla giurisprudenza dominante, possa instaurarsi una sorta di “dittatura del precedente”, capace non solo di pregiudicare l’indipendenza del giudice, ma anche di minare il suo dovere di imparzialità.

ISCRIVITI ALLA NEWSLETTER
Back To Top