Gli AI tools e i sistemi processuali di Common Law: garanzie dei diritti delle parti ed efficienza del case law system alla luce del progressivismo di uno Stato sociale

ABSTRACT: La virata degli studi giuridici verso le incidenze dell’Intelligenza Artificiale pone gli accenti soprattutto sulle modificazioni del sistema processuale che ogni ordinamento dovrà attraversare. Il mutamento dello studium juris, ancor prima dello jurisdicere, inoltre, sottende un cambiamento globale delle professioni legali. La tradizionale figura delle Corti nei Paesi di Common law, cristallizzata nello stare decisis e nella tipica discrezionalità del Giudice, rappresenta teatro di confronto tra l’introduzione degli AI tools e la somministrazione del diritto. Un accesso più immediato alle fonti da parte sia del cittadino che del giurista potrebbe generare un pericoloso affidamento nell’individuazione del binding precedent da parte dell’AI, presentando un possibile deterioramento della qualità della giustizia. Le insidie di un utilizzo incondizionato sono celate dietro ad un’immobilizzazione del progressivismo e del riconoscimento dei “nuovi” diritti, da sempre garantiti dal lavoro creativo dei commonlawyers. Nonostante la possibile conflittualità, lo strumento potrebbe però comunque costituire una pregevole risorsa per la celerità della definizione del giudizio e per lo studio di atti e provvedimenti, razionalizzando in breve tempo farraginosi meccanismi di selezione soprattutto del precedente giurisprudenziale. In tal senso, un prezioso contributo può essere offerto dall’evoluzione del sistema di Common law, sempre più incline alla precisazione dei contenuti di legge con statutes e norme, in un’ottica di delimitazione degli sconfinamenti dell’utilizzo degli strumenti, in particolare di una diffusione incontrollata dei dati del cittadino.


SOMMARIO: 1. I Sistemi Esperti nel Common law: le garanzie della Corte e del fair trial – 2. La ragionevolezza dell’adeguamento alla tradizionale discrezionalità del decisore – 3. L’atipico processo di regulation: la norma come garante della compatibilità – 4. Lo studium juris alla luce del due process.


1. I Sistemi Esperti nel Common law: le garanzie della Corte e del fair trial

L’assunto secondo cui l’intelligenza umana è quanto di più progredito e insuperabile nei campi scientifici ha dominato almeno fino alla metà del XIX secolo. L’avvento nel campo del diritto e nelle aule di Tribunali delle nuove tecnologie e, più recentemente, dell’Intelligenza Artificiale ha comportato una rivoluzione del ragionamento giuridico. Si tratta indubbiamente di un arduo processo di inserimento nelle dinamiche processuali e costituzionali, onde origina una complessa pretesa di compatibilità tra l’esperienza giuridica umana dell’avvocato e della Corte e l’oggettivizzazione digitale delle conoscenze[1]. La rappresentazione di una conoscenza giuridica, attraverso questi strumenti, è delineata artificialmente attraverso quelli che vengono denominati Sistemi Esperti. Essi si muovono entro un dominio limitato di indagine, garantendo una proposta di risultati con dovizia di particolari ed elementi, eseguendo prestazioni simili a quelle di un esperto nel settore. Sicché, l’utilizzo dei predetti Sistemi pone in luce, da un lato, la celerità e la riproducibilità di un ragionamento deduttivo legale, dall’altro, i limiti di un meccanismo che utilizza espressioni semantico-sintattiche che difficilmente ricalcano il linguaggio giuridico, obliterando, su tutti, il senso giuridico comune.[2]

Gli automatismi dell’AI seguono vari schemi di risoluzione del caso pratico, in relazione alla diversa tangenza con i due sistemi giuridici occidentali di riferimento. Nei sistemi di civil law, ricercano il fatto nelle norme, tramite un’operazione sussuntiva, applicando eventualmente i principali concetti di diritto. Tuttavia, il progetto più ambizioso risiede nell’edificanda affidabilità dei nuovi strumenti in relazione agli ordinamenti di Common law: a causa della necessità di un approccio maggiormente casistico, i bot, sulla base degli elementi di fatto del caso in osservazione,riproducono artificialmente il rapporto tra presente e passato, tenendo in considerazione la successione cronologica degli eventi e la coincidenza fra i vari precedenti delle Corti. Il binding precedent è individuato utilizzando due algoritmi di ragionamento: il reasoning by example e il cased-based reasoning.[3]

Nell’ottica della vincolatività dei precedenti nelle decisioni del Giudice nel diritto anglosassone, una presenza costante nelle courtrooms delle AI potrebbe rappresentare problematiche in ragione dei ccdd. input problems, ossia errori di rappresentazione della res controversa al Sistema, responsabili di una scorretta correlazione con il caso da individuarsi ai fini della decisione stessa. La raffigurazione del caso, dunque, rappresenta indiscutibilmente un peso da posizionare sulla bilancia dello sviluppo delle Corte di common law, all’interno di ordinamenti che strutturalmente sono inclini all’assolutizzazione della regola nella decisione[4]. Per di più, a causa del progettato potere di persuasione insito nella risposta elaborata per il giurista, il Sistema potrebbe rendersi artefice dell’assimilazione di due casi ontologicamente differenti, trovando in uno la rule per la soluzione dell’altro. I risvolti possono essere dei più vari. In ambito penale, ad esempio, l’incondizionato affidamento alla casistica propinata svilupperebbe un pericoloso anticipo della presunzione di colpevolezza, nonché la deflazione della discrezionalità giudiziaria, stendardo del progressismo anglosassone, da cui può – ingiustificabilmente – derivare uno svantaggio a causa di un prestabilito criminal risk assestment, obliterando la necessaria considerazione del peculiare contesto socioculturale[5].

Le insidie degli AI systems si manifestano nel processo di oggettivizzazione della ricerca del precedente vincolante, da cui in astratto possono originare i ccdd. algorithmic prejudices – o bias[6] – consistenti in errori di profilazione dei soggetti o di ripetizione asetticamente automatizzata dei precedenti in giurisprudenza, dogmatizzati artificialmente dal Sistema. La conflittualità con le garanzie, soprattutto processuali, dei sistemi di Common law si genera proprio dal metodo casistico e dalla vincolatività che lo caratterizza: l’evoluzione della realtà giuridica, l’adattamento ai cambiamenti socio-economici e, in particolare, il progressivo riconoscimento dei diritti tipico di uno Stato sociale devono ora confrontarsi con una pericolosa immobilizzazione dello sviluppo giurisprudenziale, un tempo punto nodale per le conquiste sociali.

Tra le righe dell’art. 6 dello Human Rights Act è possibile constatare un ulteriore argine da dover costruire. Usualmente, i Paesi di Common Law garantiscono la possibilità, specie nei processi penali, dell’autodifesa. The right to defend himself in person è stato anche riconosciuto diritto di rango costituzionale dalla Corte Suprema USA, nel 1975. L’avvento delle tecnologie in analisi attrae l’opportunità di un più facile e “democratico” accesso alle conoscenze legali, soprattutto per le fasce della popolazione che non possono permettersi una full representation[7]. Inevitabilmente, però, tanto esposto comporta un abbassamento della qualità della giustizia, delle sentenze e, conseguentemente, delle guarentigie dei partecipanti ai processi.

2. La ragionevolezza dell’adeguamento alla tradizionale discrezionalità del decisore

Il ruolo dell’interpretazione del Giudice nell’innovazione della creating judge-made law costituisce un valore basilare per i sistemi legali in osservazione. La garanzia dei principi etici e morali del Giudice, attraverso il relativo connubio con lo studio dei fenomeni sociali della discrezionalità, tutela la sopravvivenza della democrazia in questi Stati. Di conseguenza, l’insostituibile lavoro interpretativo-creativo delle Corti preserva l’esistenza della Rule of Law e del progresso delle libertà individuali, in quanto attualizzabili soltanto all’interno di una comunità di cui lo stesso organo giudicante si sente partecipe[8]. Pertanto, uno sfruttamento intensivo del digitale garantirebbe sì una maggiore celerità dei procedimenti al fine di addivenire ad un’immediata risoluzione della controversia, ma comporterebbe altresì il superamento della funzione giurisprudenziale che da secoli ha assicurato l’identificazione del tessuto sociale nel diritto.

I campi di studio si moltiplicano in relazione alle figure professionali che possono accedere al Sistema, partendo dagli avvocati, sino allo Staff Attorney del Giudice, nell’ottica di garantire il più corretto svolgimento del fair trial. Si pensi, a titolo esemplificativo, alle incidenze con il lavoro della giuria, tendenzialmente meno giurisperita, la quale, nella pronuncia di un verdict risultato di una procedura artificiale, potrebbe condizionare la sentence in un sistema in cui è nota la bifasicità del processo. In altre parole, il lavoro della jury nei procedimenti di Common law si appalesa come propedeutico alla sentence del giudice “togato”, evidenziando la pericolosità del carattere dell’attendibilità riposto nel Sistema Esperto da parte della giuria popolare.

Orbene, l’utilizzo degli AI tools da parte delle Corti non può essere esclusivamente stigmatizzato: il fair trial e la due process rule, cristallizzati all’interno del XIV° Emendamento della Costituzione degli USA, disvelano una possibile affinità tra l’ufficio decisorio del Giudice e la completezza del panorama informativo necessario ai fini della redazione della sentenza[9]. Ciò che risulta, dunque, non configura un’aprioristica conflittualità, ma identifica l’esigenza di assicurare le AI in una cornice suppletiva non già esclusivamente determinante del provvedimento giudiziario, ma capace di perfezionare la comprensione del fatto e la ricerca del precedente per garantire una corretta decisione. Pertanto, il giudice non è esautorato del suo ufficio ex ante e potenzialmente potrebbe rinvenire una risorsa nei suddetti strumenti.

La convivenza potrà essere assicurata soltanto se il commonlawyer – in particolare chi deve prendere le decisioni – sarà in grado di conservare i “building blocks[10] della tradizione anglosassone e la garanzia della valutazione di tutti gli elementi circostanziali propria della discrezionalità e della reasonable care, proprie di un ragionamento giuridico calibrato sul decisore. L’immenso potenziale delle AI (sintetizzazione atti di causa, schematizzazione della risoluzione, agevolazione nella stesura di atti e provvedimenti ecc.) necessita l’inquadramento in schemi ricorrenti non soltanto di giudizio, ma soprattutto di carattere umano e morale.

Le AI sources riescono a pervenire ad un risultato celere e anche affidabile, basandolo tuttavia su un algoritmo impostato su similitudini. Difatti, la riproduzione di un senso giuridico, che tenga conto anche del dovere del giudice di dover motivare la sentenza, di doverla relazionare con il contesto e, soprattutto, con il sostrato sociale rimane la sfida più ardua per assicurarne la costruzione del dialogo tra lo strumento e il diritto.  Parte dalle garanzie di un sistema che affida un’ampia capacità valutativa al proprio organo giudicante sono affidate alla ragionevolezza delle statuizioni della Corte, assicurando una relational non-arbitrariness[11], in via di definizione per gli strumenti AI.

3. L’atipico processo di regulation: la norma come garante della compatibilità

Il processo di regulation che sta attraversando in modo più o meno tangibile i Paesi che un tempo affidavano la risoluzione dei contenziosi prettamente al case law inevitabilmente travolgerà anche l’ambito delle nuove tecnologie digitali, tra cui la presenza dei bot nel diritto. Ne è testimonianza il Canada, in cui storicamente e attualmente è maggiore l’influenza dei sistemi di civil law, ove si è già provveduto ad intervenire, seppur in modo embrionale con un disegno di legge[12]. Ivi, viene in auge il profilo della tutela della privacy e dei dati inseriti ai fini dell’utilizzo dei suddetti tools, in un meccanismo di irrobustimento delle conoscenze dell’apparato Intelligenza Artificiale in cui sono evidenti i rischi di una diffusione disorganizzata delle informazioni.

Il Regolamento UE 2024/1689 sull’Intelligenza Artificiale ha offerto un notevole precedente circa la regolamentazione delle AI nei campi soprattutto scientifici, in base ad una categorizzazione basata sui diversi gradi di rischio derivante dalla liberalizzazione di strumenti del tipo. La promulgazione dell’AI Act ha precettato uno schema d’intervento esemplificativo che prescrive trasparenza e tutela degli utenti, nell’ambito della più ampia garanzia dei diritti umani, riproducibile nei contenuti anche nelle leggi di stampo anglosassone[13].

Lo statute law potrebbe in maniera non tradizionale perimetrare, in un’ottica cooperativa, lo sconfinamento delle problematiche succitate, adattando, ma anche adottando le potenzialità di uno strumento così vasto e dibattuto.

Negli ultimi decenni, infatti, le judge-made laws hanno perso la loro efficienza e – forse – primizia in un processo di convergenza tra la tradizionale posizione avanguardista ereditata dall’Equity e la fissazione dei precetti nelle leggi proprie dello statute law, tratteggiando una maggior pregnanza del lavoro del giuspositivismo[14]. È proprio nell’utilizzo delle nuove tecnologie da parte delle Corti, paradossalmente un problema tutto umano, che sembra essere fondamentale lo studio delle inclinazioni delle evoluzioni legislative relative in relazione al fenomeno delle AI.

4. Lo studium juris alla luce del due process         

La crescente attenzione globale verso la due process rule comporta inevitabilmente che lo sudium juris si concentri anche e soprattutto sui sensibili cambiamenti che, per mezzo dell’introduzione delle Intelligenze Artificiali, il mondo del diritto fronteggia oggigiorno. Non ne è esente, come ricordato, nemmeno l’intero sistema di diritto anglosassone, in cui il ruolo del giudice consente e impone alla sua autorità di legiferare. È la sua capacità di volgere lo sguardo verso il futuro, riassunta da Justice Holmes con la formula “the judge do and must legislate[15], che sicuramente, allo stato attuale, manca all’Intelligenza Artificiale. E ciò è testimoniato proprio dalle colluttazioni che possono verificarsi con la regola del giusto processo.

Innanzitutto, nell’ambito del criminal process, uno dei baluardi del concetto di fair trial, ossia il principio di non colpevolezza – potenzialmente obliterato dalla profilazione dell’imputato adoperata dalla macchina e dall’asettica valutazione del risk assestment soggettivo –, potrebbe pericolosamente subire una violazione per mano dell’AI, a causa dell’anticipo delle conclusioni di un processo. Il decisionmaker ha la necessità di valutare tutto il panorama di elementi che fondano una decisione, aggiungendo un quid pluris agli stessi. L’impostazione dei bot, tutt’al contrario, alloca nel passato la totalità delle risposte elaborate, conformandole con la realtà soltanto perché basate su fatti già avvenuti.

Per di più, come già rappresentato, la tutela della privacy e le derivazioni dell’immissione nel circuito digital-processuale e nelle banche dati delle informazioni delle parti dovrebbero sopportare la sfida di un possibile pregiudizio dei soggetti processuali nei successivi giudizi di cui potenzialmente potrebbero partecipare.

Viepiù, alla luce delle peculiarità dei sistemi di Common law, la futura opera e del giurista e della dottrina avrà da focalizzarsi sulla conservazione della funzione della giurisprudenza nel progressivismo sociale. L’innovatività dei contenuti delle sentenze che da secoli riflette i mutamenti sociali e rivela il bisogno di una società di essere rappresentata nelle regole che la governano. L’elezione di uno schema di riproduzione costante e non creativo può comportare una (svantaggiosa) fiducia in una particolare frangia della giurisprudenza esistente, in cui è presente la sentenza presa a riferimento. La preferenza del sistema riguardo – poche – sentenze, alla stregua di una ridimensionata procedura di overruling, ostacolano la formazione di una coscienza giuridica attuale, che ben si divincola dall’ancoramento al passato e abbraccia il perfezionamento della macchina processuale.

Saranno dunque gli imperativi sociali a definire la traiettoria degli sviluppi in materia, considerando il rapporto di consequenzialità tra fenomeno sociale e decisione in Tribunale e che l’eventuale erosione delle conoscenze e della perizia dei giuristi, a causa dell’agio che la sostituzione tecnologica promette – o minaccia –, inevitabilmente sfavoriranno la crescita delle idee della dottrina, delle presunzioni di legge e delle opinioni del giudice. È in ciò che si scorge la reale esigenza di volgere lo sguardo anche verso la giustizia anglosassone, sottolineando la necessità di approfondire il grado di affidabilità della decisione e della tutela della libertà di ragionamento del Giudice di Common law[16]. In altre parole, occorrerà verificare le stanze di compatibilità nella capacità di motivazione del provvedimento, di corrispondenza con il binding precedent, ma soprattutto di efficienza-incidenza nei processi al fine di mantenere costante anche la settorializzazione delle competenze di ciascun decisore, preservando il grado di perizia ed esperienza che rendono imprescindibile la discrezionalità di quest’ultimo.

Un campo d’indagine così ampio impedisce la formazione di una risposta univoca circa gli interrogativi che la rivoluzione digitale ad opera degli AI tools ha sollevato. Ma è il lavoro del giurista che da sempre ne ha caratterizzato la sua figura professionale: la capacità di interpretare le norme e di fornire un insostituibile contributo dovranno mantenere viva la fiamma del diritto nella realtà sociale in cui è stata accesa, preservandola da processi di spersonalizzazione e oggettivizzazione dell’interpretazione.


[1] Si veda Sartor G., Intelligenza artificiale e diritto: un’introduzione, Giuffrè, Milano, 1996, p. 106. È abbastanza eloquente la data di pubblicazione dell’elaborato, in quanto testimone di un’analisi dialettica risalente nel tempo tra sistema legale e AI che evidenzia i timori dello snaturamento dell’attività dei giuristi.

[2] Cfr. Contaldo A., L’intelligenza artificiale per le finalità applicative del diritto. Un excursus applicativo, in Rivista Amministrativa della Repubblica Italiana, Roma, Vol. CLXXIV, n. 9-10, 2023, pp. 521 – 522.

[3] Ivi, pp. 554 – 555. Sul punto anche Durante M.,L’intelligenza artificiale nella prospettiva dell’informazione giuridica, in Durante M., Pagallo U. (a cura di), Manuale di informazione giuridica e diritto delle nuove tecnologie, Utet Giuridica, Torino, 2012, I ed., p. 106. Il ragionamento “basato sull’esempio” e quello “basato sul caso” sono calibrati sulla tradizione legale anglosassone.

[4] Si veda Ryberg J., Criminal Sentencing and Artificial Intelligence: What is the Input Problem?, in Criminal Law and Philosophy, consultabile su www.link.springer.com.

[5] In Australia, le norme subiscono particolari deroghe, giustificate dalla presenza della popolazione indigena, incompatibili con la spersonalizzazione che potrebbe adoperare l’AI.

[6] Sul punto Cataleta M. C., The Fragility of Human Rights Facing AI, in Working paper n. 02, 1° gennaio 2020 consultabile su www.jstor.org. 

[7] Si pensi a coloro che non hanno accesso al legal aid poiché  si trovano a ridosso della soglia di povertà – near poverty. In tal senso Gambini R., L’autodifesa esclusiva nel processo penale statunitense. Self Representation in American Criminal Trials, in Processo Penale e Giustizia, n. 1, 2019, pp. 214 – 218.

[8] Cfr. Barak A., The Role of a Supreme Court in a Democracy, in UC Law SF, 2001, Vol. 53,pp. 1206 – 1209, reperibile online.

[9] Si veda Loomis v. Winsconsin: la Corte Suprema del Winsconsin ha autorizzato l’utilizzo di una banca dati da parte del giudice al fine di valutare la pericolosità dell’imputato, in quanto soltanto uno dei fattori che ha determinato la decisione del giudice; viepiù, esso ha solamente implementato il corredo conoscitivo dell’organo giudicante, aggiungendo valore alla sentenza.

[10] In tal senso Cuellar M. F., A Common Law for the age of Artificial Intelligence: incremental adjudication, institutions, and relational non-arbitrariness, in Columbia Law Review, Vol. 119, n. 7, 2019,pp. 1783 – 1786, consultabile su www.jstor.org.

[11] Ibidem. Infatti, non si parla mai di ragionevolezza circa gli schemi riproduttivi dei tools, ma di successioni algoritmiche, archivio dei dati e confronti di data base, senza però affrontare il discorso della creazione di un parallelo tra il ragionamento tradizionale del Giudice dettato dalle contingenze e il risultato artificiale.

[12] Si tratta dell’Artificial Intelligence and Data Act (AIDA) contenuto nella proposta di legge Bill C-27, presentato nel 2022 su stampo dell’AI Act dell’UE. Stati Uniti e Regno Unito hanno, sempre in via preliminare, attivato dibattiti e discussioni sulla tematica (circa l’influenza sul dovere di diligenza dei giuristi, si veda Speech by the Master of the Rolls at the LawtechUK Generative AI Event, reperibile su www.judiciary.uk), nonostante la giurisprudenza stia comunque agendo nella limitazione di un utilizzo imprudente nel mondo del diritto (vedi Brown v. BCA Trading Ltd, Pyrrho Investments v. MWB Property Ltd).

[13] Cfr. Galindo Ayuda F., Literacy, Judicial Justice and Artificial Intelligence, reperibile su www.papers.ssrn.com, p. 14. Si veda inoltre Forrest K. B., When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence, Hackensack: World Scientific Publishhing, 2021.

[14] Cfr. Garoupa N., Liguerre C. G., The evolution of the Common Law and efficiency, in Georgia Journal of International And Comparative Law, Vol. 40, n. 2, 2012, pp. 317 – 318.

[15] Il brocardo è estratto dalla controversia Southern Pacific Co. v. Jensen, U.S. Supreme Court, 1917.

[16] Cfr. Cuellar M. F., A Common Law for the age of Artificial Intelligence…, op. cit., pp. 1787 – 1789.


Bibliografia essenziale

BARAK A., The Role of a Supreme Court in a Democracy, in UC Law SF, 2001, Vol. 53, pp. 1206 – 1209.

CATALETA M. C., The Fragility of Human Rights Facing AI, in Working paper n. 02, 1° gennaio 2020.

CONTALDO A., L’intelligenza artificiale per le finalità applicative del diritto. Un excursus applicativo, in Rivista Amministrativa della Repubblica Italiana, Roma, Vol. CLXXIV, n. 9-10, 2023, pp. 521 – 522.

CUELLAR M. F., A Common Law for the age of Artificial Intelligence: incremental adjudication, institutions, and relational non-arbitrariness, in Columbia Law Review, Vol. 119, n. 7, 2019, pp. 1783 – 1789.

DURANTE M., L’intelligenza artificiale nella prospettiva dell’informazione giuridica, in Durante M., Pagallo U. (a cura di), Manuale di informazione giuridica e diritto delle nuove tecnologie, Utet Giuridica, Torino, 2012, I ed., p. 106.

GALINDO AYUDA F., Literacy, Judicial Justice and Artificial Intelligence, reperibile su www.papers.ssrn.com, p. 14.

GAMBINI R., L’autodifesa esclusiva nel processo penale statunitense. Self Representation in American Criminal Trials, in Processo Penale e Giustizia, n. 1, 2019, pp. 214 – 218

GAROUPA N., Liguerre C. G., The evolution of the Common Law and efficiency, in Georgia Journal of International And Comparative Law, Vol. 40, n. 2, 2012, pp. 317 – 318.

RYBERG J., Criminal Sentencing and Artificial Intelligence: What is the Input Problem?, in Criminal Law and Philosophy, consultabile su www.link.springer.com.

SARTOR G., Intelligenza artificiale e diritto: un’introduzione, Giuffrè, Milano, 1996, p. 106.

*** This work is peer-reviewed ***
Copyright © Author(s)
Licensed under Creative Commons Attribution-NonCommercial 4.0 International

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *