Sommario
Introduzione
Con l’avvento dell’Intelligenza Artificiale (IA) nei vari settori della vita, si dibatte sempre di più circa la possibilità di introdurre tali nuove tecnologie nell’ambito anche del comparto della giustizia (Santosuosso).
Molteplici questioni ed orientamenti contrastanti sorgono in merito all’idea di “giustizia predittiva” (Severino), ossia l’introduzione nell’apparato giudiziario di sistemi di IA che, mediante l’utilizzo di algoritmi, siano in grado di assumere il ruolo di veri e propri strumenti decisori della controversia e, pertanto, di prevedere il possibile provvedimento da emanare nell’ambito di un determinato caso sottoposto all’attenzione dell’Autorità giudiziaria.
Essa, d’altronde, è già realtà in molti Paesi.
Si pensi agli Stati Uniti dove risaltano il Public Safety Assessment (PSA), concepito per aiutare i giudici penali nelle cosiddette decisioni pre-trial, che riguardano il rilascio su cauzione o la carcerazione preventiva, ed il noto Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), il quale si basa su algoritmi predittivi che mirano a generare scale di rischio per la recidiva generale, per la recidiva violenta e per la cattiva condotta preprocessuale.
In Europa, invece, la Francia, resasi protagonista di diverse iniziative in materia di IA, utilizza nel proprio sistema giudiziario il sistema Supralegem.fr, il quale mira ad estrarre alcuni dati relativi alle sentenze elaborate dai tribunali nazionali, al fine di classificarle e di renderle accessibili al pubblico. Tra l’altro, si ricordi l’iniziativa francese volta ad introdurre nel primo comma del Preambolo della Costituzione il richiamo alla “Charte de l’intelligence artificielle ed des algorithmes” del 2020, al fine di targare lo Stato francese quale moderna società digitale.
Il ruolo del Giudice e la posizione dell’UE
L’introduzione dell’IA nel settore della giustizia implica l’utilizzo di algoritmi che possano analizzare grandi quantità di dati giuridici, tra cui testi legislativi e precedenti giurisprudenziali, al fine di fornire supporto alle decisioni giudiziarie.
L’utilizzo dell’IA è al centro dell’attenzione generale per le conseguenze che può produrre nei confronti dei valori fondanti il nostro vivere civile. È da considerare come l’idea stessa di Giustizia, sin dall’antichità, ponga alla sua base i valori intrinseci agli uomini e come essa stessa sia da considerare una vera e propria virtù dell’uomo (Rawls).
Il giudice, pertanto, deve svolgere le proprie funzioni nel rispetto di tali ideali e, come direbbe Alf Ross, egli non è da considerarsi come “un automa che meccanicamente converte norme di carta più fatti in decisione. Ai suoi occhi la legge non è una formula magica, ma una manifestazione di quegli ideali, atteggiamenti, standards o valutazioni che abbiamo chiamato tradizione culturale, la quale è viva nella mente del giudice”.
Le implicazioni etico-giuridiche dell’introduzione delle nuove tecnologie di IA all’interno del sistema di giustizia, fanno ineludibilmente sorgere questioni spinose e ampi dibattiti (D’Aloia).
L’Unione Europea, particolarmente attenta in materia di IA, in considerazione dell’avvento delle nuove tecnologie, cerca di tutelare il ruolo del giudice attraverso diverse iniziative.
Infatti, non è un caso che nella Convenzione quadro del Consiglio d’Europa “sull’intelligenza artificiale e diritti umani, democrazia e stato di diritto”, all’art. 5 par. 1, sia previsto un preciso obbligo degli Stati ad adottare misure volte a garantire che i sistemi di IA non siano utilizzati per “minare l’integrità, l’indipendenza e l’efficacia delle istituzioni e dei processi democratici, compreso il principio della separazione dei poteri, il rispetto dell’indipendenza della magistratura e l’accesso alla giustizia”.
Il nuovo AI Act, ossia primo quadro normativo completo al mondo per la regolamentazione dell’intelligenza artificiale, inoltre, comprende tra i sistemi di IA ad alto rischio anche quelli che potenzialmente potrebbero essere inseriti nel settore dell’amministrazione della giustizia, ossia quelli “destinati ad essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”.
Si precisa che i sistemi ad alto rischio sono quelli che rappresentano “un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”, e che, pur non essendo vietati, devono rispettare standard elevati di sicurezza, affidabilità e trasparenza, come chiarito nell’art. 6 dell’AI Act.
Tra l’altro, l’AI Act specifica come “L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”.
La questione sull’etica che emerge dall’introduzione di sistemi di AI nel contesto giudiziario viene affrontata già nel 2018: da un lato, l’European Commission for the Efficiency of Justice (CEPEJ) ha redatto la Carta etica europea dell’Intelligenza Artificiale nei sistemi giudiziari e negli ambiti connessi; dall’altro, un Gruppo indipendente di esperti ad alto livello sull’IA, istituito dalla Commissione Europea, ha presentato delle Linee guida etiche per una IA affidabile che è congetturata tale solo se legale, etica e robusta.
In particolare, è la CEPEJ che affronta più da vicino la questione inerente ad un possibile utilizzo dei sistemi di IA all’interno del contesto giudiziario. Essa pone il quesito se ciò possa limitare la discrezionalità sovrana del giudice e portare ad una standardizzazione delle decisioni giudiziarie, che verrebbero ad essere non più basate sul ragionamento caso per caso, ma su un puro calcolo statistico, andando ad interferire con il principio del giusto processo, come sancito dall’art. 6 della CEDU.
Le iniziative dell’Italia
Quanto all’Italia, non è stato ancora introdotto ufficialmente alcun sistema di IA nel processo decisorio del nostro sistema di giustizia.
Tuttavia, nel Disegno di legge sull’IA, approvato dal Governo il 23 aprile 2024 – mirante ad individuare i criteri attraverso cui riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso – è presente, all’art. 15, un esplicito riferimento all’utilizzo dell’IA nell’attività giudiziaria.
In particolare, esso stabilisce che i sistemi di IA debbano essere utilizzati “per l’organizzazione e la semplificazione del lavoro giudiziario, per la ricerca giurisprudenziale e dottrinale anche finalizzata all’individuazione di orientamenti interpretativi, per la predisposizione di bozze di provvedimenti e per ogni altro impiego strumentale e di supporto all’attività giudiziaria”. Ma, in ogni caso, deve essere “sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.
Fino ad ora, l’unica apparizione di un sistema di IA, nell’ambito del nostro sistema giudiziario, è dovuta ad una singolare richiesta di revisione esperita attraverso un sistema di IA da parte di un difensore nell’ambito di un procedimento penale.
È proprio la Corte di Cassazione che cita per la prima volta ChatGPT nella sentenza n. 14361 dell’11 gennaio 2024, depositata il 9 aprile 2024, nella quale si legge chiaramente che “anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli”.
Emerge, dunque, come, alla risposta del chatbot, il suddetto difensore abbia attribuito valore tale da richiederne il ricorso nell’ambito di un processo giudiziario vero e proprio.
Ma quello che sorprende maggiormente è il richiamo, da parte della Suprema Corte, al risultato dell’applicato strumento di intelligenza generativa.
Conclusioni
Pare chiaro, quindi, che ciascun Paese – compresa l’Italia – stia intraprendendo un percorso di digitalizzazione anche dei diversi settori dell’amministrazione pubblica, cercando altresì di dare a questa transizione tecnologica una risposta normativa che tenga conto di un quadro generale sia dei rischi che dei vantaggi che essa comporta.
Vero che i vantaggi, ricavati dall’uso di strumneti di IA nel sistema della Giustizia, sembrino molteplici: dalla maggiore certezza del diritto (intesa, come prevedibilità) alla coerenza e imparzialità degli orientamenti giurisprudenziali, dalla riduzione dei tempi della giustizia a quella dei costi.
Si profila tuttavia il rischio di ottenere un nuovo ordine delle cose che dissimuli, in qualche misura, una sorta di frattura antropologica e una vera e propria rivoluzione cognitiva in cui il reale si riduce al quantificabile e l’operare è destinato a prevalere sul pensare (Kostoris).
Bibliografia essenziale
D’ALOIA ANTONIO, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in Bio Law Journal – Rivista di BioDiritto n.1, 2019.
KOSTORIS ROBERTO E., Intelligenza artificiale, strumenti predittivi e processo penale, in Cassazione penale n. 5, 2024.
RAWLS JOHN, A Theory Of Justice, Milano, Feltrinelli, Milano, 2008.
ROSS ALF, Diritto e giustizia, Einaudi, Torino, 2001.
SANTOSUOSSO AMEDEO., Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano: Mondadori, 2020.
SEVERINO PAOLA, Intelligenza artificiale. Politica, economia, diritto, tecnologia, Roma: Luiss University Press, 2022.
Dott.ssa Elena Incampo