How to cite this article / Come citare questo articolo
Zito, L. (2026). Esecuzione penale e governo algoritmico: incompatibilità strutturali tra funzione rieducativa e giustizia predittiva. Aequitas Magazine, 4, 21-32.
DOI: https://doi.org/10.5281/zenodo.19452923
ABSTRACT (EN) This article investigates the structural incompatibility between the rehabilitative function of punishment, as enshrined in Article 27(3) of the Italian Constitution, and the emerging paradigm of algorithmic governance in criminal justice. Moving beyond a purely technical assessment, the study develops an epistemological critique of predictive justice, highlighting the shift from individualized judgment to probabilistic risk management. Through a reconstruction of the constitutional foundations of penal execution and a critical analysis of algorithmic risk assessment systems (with particular reference to the COMPAS model), the paper demonstrates how data-driven decision-making tends to reconfigure the subject as a statistical profile, thereby undermining the transformative and dialogical nature of rehabilitation. The work argues that such a transformation is not merely contingent but structurally incompatible with the constitutional model of punishment. In response, it proposes a framework of “constrained algorithmic assistance,” grounded in the primacy of human decision-making, full transparency, and procedural contestability. The article concludes that the legitimacy of technological integration in penal execution depends on its strict subordination to constitutional principles, particularly the preservation of individualization and the irreducible human dimension of judicial decision-making.
ABSTRACT (IT) Il contributo analizza l’incompatibilità strutturale tra la funzione rieducativa della pena, sancita dall’art. 27, comma 3, Cost., e il paradigma emergente del governo algoritmico nella giustizia penale. Superando una prospettiva meramente tecnica, l’indagine sviluppa una critica di natura epistemologica della giustizia predittiva, evidenziando il passaggio da una logica di giudizio individualizzato a una di gestione probabilistica del rischio. Attraverso la ricostruzione del fondamento costituzionale dell’esecuzione penale e l’analisi dei sistemi di risk assessment (con particolare riferimento al modello COMPAS), si dimostra come l’utilizzo di strumenti algoritmici tenda a ridurre il soggetto a un profilo statistico, compromettendo la dimensione trasformativa e dialogica della rieducazione. Tale tensione viene qualificata come strutturale e non contingente. In risposta, il lavoro propone un modello di “assistenza algoritmica vincolata”, fondato sulla centralità della decisione umana, sulla trasparenza e sulla piena sindacabilità degli strumenti utilizzati. Si conclude che la legittimità dell’integrazione tecnologica nell’esecuzione penale è subordinata al rispetto dei principi costituzionali, in particolare alla preservazione dell’individualizzazione e della dimensione umana del giudizio.
SOMMARIO: 1. Introduzione – 2. Fondamento costituzionale della rieducazione e crisi del paradigma trattamentale – 3. Giustizia predittiva, epistemologia algoritmica e crisi della decisione penale – 4. Limiti costituzionali dell’automazione decisionale, modello di integrazione vincolata e prospettive dell’esecuzione penale – 5. Conclusioni.
1. Introduzione
La trasformazione dell’esecuzione penale nel contesto contemporaneo non può essere adeguatamente compresa se non alla luce di una duplice tensione che investe, simultaneamente, il piano empirico e quello epistemologico del diritto penale. Da un lato, la persistente crisi strutturale del sistema penitenziario mette in discussione l’effettività della funzione rieducativa sancita dall’art. 27, comma 3, Cost.; dall’altro, l’emergere di modelli decisionali fondati su logiche algoritmiche introduce una forma inedita di razionalità giuridica, destinata a incidere profondamente sulle modalità di costruzione del giudizio.
In tale scenario, l’intelligenza artificiale non si limita a configurarsi come uno strumento tecnico di supporto all’attività decisionale, ma assume i tratti di un vero e proprio paradigma cognitivo alternativo, fondato sulla previsione statistica e sulla classificazione probabilistica dei comportamenti. La progressiva diffusione di sistemi di risk assessment nel contesto della giustizia penale evidenzia infatti il passaggio da una logica centrata sulla responsabilità individuale a una logica orientata alla gestione del rischio, nella quale la decisione si fonda non più sulla comprensione del soggetto, ma sulla stima della sua pericolosità futura.
Tale trasformazione non è neutrale. Essa implica una ridefinizione delle categorie fondamentali del diritto penale. Solleva inoltre interrogativi radicali in ordine alla compatibilità tra il modello algoritmico e il paradigma costituzionale della pena.
In particolare, occorre interrogarsi se un sistema fondato sulla previsione probabilistica possa coesistere con un principio, quale quello della rieducazione, che presuppone la possibilità di mutamento del soggetto e richiede una valutazione individualizzata.
Il presente contributo si colloca all’interno di tale tensione e muove da una tesi di fondo: l’integrazione dell’intelligenza artificiale nel procedimento di sorveglianza, ove non rigorosamente limitata, determina una torsione strutturale del modello costituzionale della pena, sostituendo alla dimensione dialogica e trasformativa della rieducazione una logica classificatoria fondata sulla stabilizzazione del rischio.
L’indagine si sviluppa lungo tre direttrici principali.
In primo luogo, si procede a una ricostruzione del fondamento costituzionale della funzione rieducativa e della sua crisi empirica nel sistema penitenziario contemporaneo.
In secondo luogo, si analizza la natura epistemica della giustizia predittiva, con particolare riferimento all’esperienza statunitense e ai sistemi di risk assessment, evidenziandone le implicazioni sul piano della decisione giuridica.
Infine, si esaminano i limiti costituzionali dell’automazione decisionale, proponendo un modello di integrazione tecnologica vincolata, fondato sulla centralità della decisione umana e sulla piena sindacabilità degli strumenti algoritmici.
In tale ottica, il contributo non si limita a descrivere l’impatto delle tecnologie emergenti, ma intende offrire una chiave interpretativa capace di ricondurre tali fenomeni entro il quadro dei principi costituzionali, riaffermando la centralità della persona quale criterio ultimo di legittimazione della pena.
2. Fondamento costituzionale della rieducazione e crisi del paradigma trattamentale
Nel solco della prospettiva indicata, la funzione rieducativa della pena non può essere considerata un dato meramente normativo, ma deve essere riletta quale categoria centrale nella tensione tra modelli di razionalità concorrenti che attraversano il diritto penale oggi.
La sua analisi impone dunque una duplice operazione: in primis, la ricostruzione del suo fondamento costituzionale; in secondo luogo, la verifica della sua tenuta nel contesto di una crisi empirica e sistemica che, in qualche misura, nel compromette l’effettività.
La riflessione contemporanea sull’esecuzione penale si colloca in una fase di profonda trasformazione, nella quale le categorie tradizionali del diritto penitenziario risultano sempre meno idonee a descrivere la complessità dei fenomeni in atto.
Il sistema sanzionatorio, così come delineato dal costituente, appare oggi attraversato da tensioni che ne mettono in discussione non soltanto l’efficacia, ma la stessa coerenza interna. In particolare, la funzione rieducativa della pena, sancita dall’art. 27, comma 3, della Costituzione, si confronta con una crisi duplice: da un lato, quella empirica del carcere come luogo di reinserimento sociale; dall’altro, quella epistemica derivante dall’introduzione di modelli decisionali fondati su logiche algoritmiche e predittive.
La disposizione costituzionale che impone che le pene “tendano alla rieducazione del condannato” rappresenta uno dei punti più avanzati della riflessione giuridica del secondo dopoguerra. Essa segna il superamento delle concezioni meramente retributive e afflittive della pena, imponendo una radicale riconfigurazione del rapporto tra Stato e individuo.
La pena non è più concepita come semplice reazione al reato, ma come strumento orientato alla trasformazione del soggetto, alla sua reintegrazione nel tessuto sociale e alla prevenzione di future condotte devianti.
Tuttavia, tale impostazione non può essere ridotta a una mera enunciazione programmatica. La giurisprudenza costituzionale ha chiarito, con orientamento ormai consolidato, che la funzione rieducativa costituisce una qualità intrinseca della pena, destinata a permeare tutte le fasi del sistema sanzionatorio. Non si tratta dunque di un obiettivo eventuale o accessorio, ma di un vincolo strutturale che incide tanto sulla discrezionalità legislativa quanto sull’attività giurisdizionale.
In tale prospettiva, la giurisprudenza costituzionale ha ulteriormente precisato la portata vincolante della funzione rieducativa, qualificandola come principio immanente all’intero sistema sanzionatorio.
La centralità della funzione rieducativa della pena ha trovato un riconoscimento costante nella giurisprudenza della Corte costituzionale italiana, la quale ha chiarito che essa non costituisce un mero obiettivo programmatico, ma un principio immanente all’intero sistema sanzionatorio. In particolare, la Corte ha affermato che la finalità rieducativa rappresenta un vincolo che permea tanto la fase legislativa quanto quella esecutiva della pena (cfr. sent. n. 313/1990), imponendo che il trattamento penitenziario sia orientato alla concreta possibilità di reinserimento sociale del condannato.
Tale impostazione è stata ulteriormente ribadita in pronunce più recenti (sent. n. 149/2018), nelle quali si sottolinea come la pena non possa mai risolversi in una mera compressione della libertà personale, ma debba sempre conservare una prospettiva evolutiva della persona. Alla luce di tale orientamento, ogni modello decisionale che tenda a cristallizzare il soggetto in base a parametri statistici di rischio si pone in tensione con il dettato costituzionale, in quanto compromette la dimensione dinamica e trasformativa che la Costituzione assegna alla pena.
È proprio in questo spazio di tensione tra vincolo costituzionale e crisi empirica del sistema penitenziario che si inserisce il successivo sviluppo dell’analisi.
Insomma, la pena deve essere costruita in modo tale da rendere possibile e reale un percorso di evoluzione personale del condannato. Ciò implica che la sanzione non può esaurirsi nella mera privazione della libertà, ma deve concretamente essere accompagnata da un insieme di strumenti idonei a favorire il cambiamento. Il trattamento penitenziario, l’accesso al lavoro, l’istruzione, il mantenimento dei legami familiari e sociali costituiscono, in tal senso, elementi essenziali di un sistema che intenda realizzare, nella pratica, la finalità rieducativa.
Tuttavia, proprio sul piano dell’attuazione concreta emergono le prime e più evidenti criticità. Il sistema penitenziario italiano, pur formalmente strutturato secondo i principi dell’individualizzazione e della progressività del trattamento, si trova da decenni in una condizione di difficoltà strutturale che ne compromette l’efficacia.
Il sovraffollamento carcerario rappresenta, in tal senso, il sintomo più evidente di una crisi che non è soltanto organizzativa, ma sistemica. Le condizioni materiali di detenzione, spesso inadeguate, incidono direttamente sulla possibilità di realizzare percorsi trattamentali efficaci, trasformando il carcere in un ambiente che, lungi dal favorire la rieducazione, tende a produrre effetti opposti.
La letteratura criminologica e sociologica ha ampiamente documentato come la detenzione prolungata in condizioni di marginalità e isolamento possa rafforzare le identità devianti, piuttosto che attenuarle.
Il carcere, in quanto istituzione totale, tende ineludibilmente a interrompere i legami sociali preesistenti e a sostituirli con dinamiche relazionali interne spesso caratterizzate da logiche di potere e appartenenza. In tale contesto, il percorso rieducativo rischia di rimanere confinato a una dimensione meramente formale, priva di reale incidenza sulla traiettoria di vita del condannato.
A ciò si aggiunga la difficoltà di garantire un’effettiva individualizzazione del trattamento. La carenza di risorse umane e materiali, unita all’elevato numero di detenuti, rende spesso impossibile elaborare programmi personalizzati che tengano conto delle specificità di ciascun soggetto.
Il risultato è una standardizzazione delle attività trattamentali che contraddice, in radice, il principio costituzionale della rieducazione.La crisi del paradigma rieducativo si manifesta, dunque, come una frattura tra il “dover essere” normativo e l’“essere” della prassi penitenziaria. Questa frattura non può essere colmata attraverso interventi meramente organizzativi, ma richiede una riflessione più ampia sulle categorie stesse attraverso cui il diritto penale interpreta la funzione della pena.
È appunto in tale contesto che si inserisce il crescente interesse per strumenti di valutazione del rischio basati sull’intelligenza artificiale. La difficoltà di prevedere il comportamento futuro del condannato, unita alla necessità di adottare decisioni complesse in tempi relativamente brevi, ha spinto gli operatori del diritto a guardare con interesse a modelli predittivi capaci di elaborare grandi quantità di dati e di fornire indicazioni probabilistiche sulla recidiva.
Tali strumenti si presentano come soluzioni tecniche a problemi strutturali. Essi promettono di ridurre l’incertezza decisionale, di uniformare i criteri di valutazione e di migliorare l’efficienza del sistema. Tuttavia, il loro utilizzo introduce una logica profondamente diversa da quella che informa il paradigma rieducativo. Mentre quest’ultimo si fonda sulla possibilità di trasformazione del soggetto, gli algoritmi predittivi operano sulla base di dati pregressi, individuando correlazioni statistiche e proiettandole nel futuro.
La differenza non è meramente metodologica, ma ontologica. La rieducazione presuppone che l’individuo sia capace di mutare, che il suo comportamento non sia determinato in modo rigido da fattori preesistenti.
L’algoritmo, al contrario, tende a stabilizzare il soggetto all’interno di categorie probabilistiche, attribuendogli un certo grado di rischio sulla base di variabili predeterminate. In tal modo, la persona viene progressivamente ridotta a un profilo statistico, e la decisione si fonda non più su un giudizio individuale, ma su una classificazione.
Tale passaggio segna una trasformazione profonda della decisione giuridica. Il giudizio, inteso come valutazione complessa e argomentata del caso concreto, viene progressivamente sostituito da una previsione probabilistica. La decisione non si basa più sulla comprensione del soggetto, ma sulla stima del suo comportamento futuro.
Si assiste, in altri termini, a un passaggio dalla logica della responsabilità alla logica del rischio.Tale trasformazione solleva interrogativi fondamentali in ordine alla compatibilità tra l’impiego dell’intelligenza artificiale e i principi costituzionali che governano l’esecuzione penale. In particolare, ci si deve chiedere se sia possibile integrare strumenti algoritmici all’interno di un sistema che attribuisce alla pena una funzione rieducativa, senza alterarne la struttura.
La risposta a tale quesito richiede un’analisi che non si limiti al piano tecnico, ma che investa le categorie fondamentali del diritto. Non si tratta, infatti, di valutare l’efficienza degli algoritmi, ma di comprendere se la loro logica sia compatibile con quella del diritto penale costituzionale.In questa prospettiva, la crisi del paradigma rieducativo non può essere considerata come un semplice fallimento empirico, ma deve essere letta come il sintomo di una tensione più profonda tra modelli di razionalità diversi.
Si pone, da un lato, il diritto penale, fondato sulla responsabilità individuale e sulla possibilità di mutamento; si profila, d’altro anto, all’orizzonte l’intelligenza artificiale, fondata sulla previsione statistica e sulla gestione del rischio.
Il confronto tra questi due modelli rappresenta il cuore della riflessione contemporanea sull’esecuzione penale. Esso impone di interrogarsi non soltanto sui limiti dell’innovazione tecnologica, ma sulla capacità del diritto di adattarsi a un contesto in cui la decisione tende sempre più a essere mediata da strumenti tecnici.
In definitiva, la funzione rieducativa della pena, lungi dall’essere un principio superato, rappresenta oggi il criterio fondamentale per valutare la legittimità delle trasformazioni in atto. Essa impone di mantenere la centralità della persona, di garantire la possibilità di cambiamento e di escludere ogni forma di automatismo decisionale.
L’intelligenza artificiale, se non adeguatamente regolata, rischia di compromettere tali valori, introducendo una logica incompatibile con il modello costituzionale.
3. Giustizia predittiva, epistemologia algoritmica e crisi della decisione penale
La progressiva introduzione di strumenti di intelligenza artificiale nei processi decisionali della giustizia penale non può essere compresa se non alla luce di una più ampia trasformazione dei modelli di razionalità che governano l’azione pubblica.
L’affermarsi di forme di “governo algoritmico” non rappresent infatti una mera innovazione tecnologica, ma implica un mutamento profondo nei criteri attraverso i quali vengono costruite e giustificate le decisioni giuridiche. In particolare, nel contesto dell’esecuzione penale, tale mutamento si manifesta attraverso l’adozione di sistemi di valutazione del rischio che operano secondo logiche probabilistiche, sostituendo progressivamente la valutazione individuale con modelli predittivi basati su dati.
Per comprendere la portata di questa trasformazione è necessario soffermarsi sulla natura epistemica degli algoritmi predittivi. Essi si fondano sull’analisi di grandi quantità di dati relativi a comportamenti passati, al fine di individuare correlazioni statistiche tra determinate variabili e la probabilità di commissione di reati futuri.
In tal modo, l’algoritmo non “comprende” il soggetto, ma lo colloca all’interno di una classe di individui che presentano caratteristiche analoghe, attribuendogli un livello di rischio sulla base della frequenza con cui soggetti simili hanno manifestato determinati comportamenti.
Tale modalità di costruzione della conoscenza si differenzia radicalmente da quella che tradizionalmente caratterizza la decisione giuridica. Il giudizio penale, in particolare, si fonda su una valutazione individualizzata che tiene conto della personalità del soggetto, del contesto in cui il reato è stato commesso, delle sue condizioni sociali e delle prospettive di reinserimento. Esso implica un processo interpretativo complesso, nel quale il giudice è chiamato a ricostruire il significato delle condotte e a formulare una prognosi sulla base di elementi qualitativi, non riducibili a meri dati numerici.
L’algoritmo, al contrario, opera attraverso una logica di astrazione che elimina le peculiarità individuali per concentrarsi su variabili generalizzabili. Il soggetto viene così trasformato in un vettore di dati, e la decisione si basa su una probabilità statistica piuttosto che su una valutazione concreta.
Tale passaggio segna una vera e propria mutazione del paradigma decisionale: dalla comprensione alla previsione, dalla responsabilità al rischio. È dunque inevitabile un cambiamento di tipo culturale.
Tale situazione è già emersa con particolare evidenza nell’esperienza statunitense, dove l’uso di strumenti di risk assessment è ormai ampiamente diffuso. Il caso più emblematico è rappresentato dal sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizzato in numerosi Stati per valutare il rischio di recidiva dei soggetti coinvolti nel sistema penale. COMPAS elabora una serie di dati relativi al soggetto, tra cui precedenti penali, condizioni socio-economiche, relazioni familiari e altri indicatori, al fine di attribuire un punteggio di rischio che può influenzare decisioni quali la concessione della libertà vigilata o la determinazione della pena.
L’introduzione di COMPAS è stata inizialmente accolta come un progresso in termini di efficienza e oggettività, in quanto prometteva di ridurre la discrezionalità giudiziaria e di rendere più uniformi le decisioni. Tuttavia, l’analisi empirica del suo funzionamento ha sollevato gravi criticità. In particolare, uno studio condotto da ProPublica ha evidenziato come il sistema presenti significativi bias razziali, sovrastimando il rischio di recidiva per gli imputati afroamericani rispetto a quelli bianchi, anche a parità di condizioni.
Questo dato non rappresenta un’anomalia contingente, ma è il risultato della struttura stessa degli algoritmi, che, in re ipsa, riflettono e amplificano le disuguaglianze presenti nei dati su cui sono addestrati. Poiché tali dati derivano da pratiche di controllo e repressione già caratterizzate da disparità, l’algoritmo finisce per incorporare tali bias, riproducendoli su scala più ampia.
A ciò si rilevi il problema dell’opacità algoritmica. I modelli utilizzati da COMPAS sono proprietari e non accessibili, il che rende impossibile per le parti e per il giudice comprendere pienamente i criteri sulla base dei quali viene attribuito il punteggio di rischio.
Tale carenza di trasparenza compromette il diritto di difesa, in quanto impedisce di contestare efficacemente le basi della decisione, e solleva dubbi sulla compatibilità di tali strumenti con i principi del giusto processo.
La giurisprudenza statunitense ha affrontato tali questioni nel noto caso Wisconsin v. Loomis, nel quale la Corte Suprema del Wisconsin ha ritenuto ammissibile l’uso di COMPAS, a condizione che il giudice non si basi esclusivamente sul punteggio algoritmico. Tuttavia, questa soluzione appare insufficiente, in quanto non elimina il rischio che l’algoritmo influenzi in modo determinante la decisione, soprattutto in contesti in cui il giudice non dispone di strumenti adeguati per valutarne criticamente i risultati.
L’esperienza americana dimostra, dunque, che l’integrazione degli algoritmi nei processi decisionali penali comporta una serie di rischi che non possono essere ignorati. Tali rischi non sono soltanto di natura tecnica, ma incidono direttamente sui principi fondamentali dell’ordinamento, tra cui l’uguaglianza, il diritto di difesa e l’indipendenza del giudice.
Se si trasferisce tale analisi nel contesto dell’esecuzione penale italiana, le criticità appaiono ancora più rilevanti. Il procedimento di sorveglianza si caratterizza per la necessità di formulare valutazioni prognostiche sulla pericolosità sociale del condannato e sulla sua idoneità a beneficiare di misure alternative alla detenzione. Tali valutazioni, pur essendo intrinsecamente incerte, devono essere fondate su un’analisi approfondita della personalità del soggetto e del suo percorso trattamentale.
L’introduzione di strumenti algoritmici in questo ambito rischia di alterare profondamente la natura di tali valutazioni, sostituendo la complessità del giudizio individuale con la semplificazione della previsione statistica. Il rischio non è soltanto quello di errori o bias, ma di una trasformazione più radicale della decisione, che perde la sua dimensione interpretativa per assumere una forma tecnica e standardizzata.
In tal senso, la giustizia predittiva si configura come un modello epistemico alternativo a quello tradizionale del diritto penale. Essa si fonda su una logica di gestione del rischio che privilegia la prevenzione rispetto alla responsabilità, la probabilità rispetto alla comprensione, la classificazione rispetto all’individualizzazione.
Tale tipologia di logica entra in tensione con il paradigma costituzionale della rieducazione, che presuppone la possibilità di mutamento del soggetto e richiede una valutazione personalizzata. L’algoritmo, al contrario, tende a cristallizzare il soggetto all’interno di categorie statistiche, attribuendogli un’identità basata sul passato piuttosto che sulle potenzialità future.
Ne deriva una incompatibilità che non può essere risolta attraverso semplici accorgimenti tecnici, ma richiede una riflessione più profonda sul ruolo della tecnologia nel diritto. L’adozione di strumenti algoritmici non è neutrale, ma implica una scelta di modello, che può rafforzare o indebolire i principi costituzionali a seconda delle modalità di utilizzo.
In definitiva, l’analisi della giustizia predittiva e dell’esperienza comparata evidenzia come l’integrazione dell’intelligenza artificiale nei processi decisionali penali comporti una trasformazione epistemica della decisione che rischia di essere incompatibile con il paradigma rieducativo.
La sfida per il diritto contemporaneo consiste nel governare, in qualche misura, tale trasformazione, evitando che la logica del rischio sostituisca quella della responsabilità e che la tecnologia diventi un fattore di disumanizzazione della giustizia.
4. Limiti costituzionali dell’automazione decisionale, modello di integrazione vincolata e prospettive dell’esecuzione penale
L’analisi delle trasformazioni indotte dall’intelligenza artificiale nei processi decisionali della giustizia penale impone, a questo punto, un confronto diretto con i principi costituzionali che governano l’esecuzione della pena.
Se, come si è visto, la logica algoritmica introduce una modalità di conoscenza fondata sulla previsione statistica e sulla classificazione del rischio, è necessario interrogarsi sulla sua compatibilità con un sistema che riconosce nella rieducazione del condannato un principio strutturale e non derogabile.
La questione non può essere risolta limitandosi a verificare la correttezza tecnica degli algoritmi o la loro capacità predittiva. Il problema è più profondo e riguarda la natura stessa della decisione giuridica. In particolare, occorre stabilire se sia ammissibile, in un ordinamento fondato sulla centralità della persona, l’utilizzo di strumenti che tendono a ridurre l’individuo a un insieme di dati e a fondare la decisione su una probabilità.Il primo profilo di criticità riguarda il diritto di difesa.
L’art. 24 della Costituzione garantisce a ogni individuo la possibilità di conoscere e contestare le basi della decisione che lo riguarda. Tuttavia, l’opacità degli algoritmi, soprattutto quando basati su modelli di machine learning, rende estremamente difficile, se non impossibile, comprendere i criteri che hanno condotto a un determinato risultato. In assenza di trasparenza, il contraddittorio si svuota di contenuto, trasformandosi in una mera formalità priva di effettività.
Tale criticità si riflette direttamente sul principio del giusto processo, sancito dall’art. 111 della Costituzione. Il processo penale non è soltanto un insieme di regole procedurali, ma un luogo di confronto tra posizioni contrapposte, nel quale la decisione deve emergere da un dibattito aperto e trasparente. L’introduzione di strumenti algoritmici non contestabili altera questa dinamica, introducendo un elemento di conoscenza sottratto al controllo delle parti.
Un secondo profilo riguarda il principio di uguaglianza. Gli algoritmi predittivi, come si è visto, tendono a incorporare i bias presenti nei dati su cui sono addestrati. Ciò può determinare forme di discriminazione indiretta, in quanto soggetti appartenenti a determinati gruppi sociali possono essere sistematicamente classificati come più rischiosi, indipendentemente dalle loro caratteristiche individuali. In tal modo, l’uguaglianza formale viene compromessa da una disuguaglianza sostanziale che si radica nel funzionamento stesso del sistema.
Ancora più rilevante è il profilo relativo all’indipendenza del giudice. L’art. 104 della Costituzione stabilisce che la magistratura costituisce un ordine autonomo e indipendente da ogni altro potere.
Tale indipendenza non è soltanto istituzionale, ma riguarda anche la formazione della decisione. Il giudice deve essere libero di valutare il caso concreto sulla base degli elementi disponibili, senza essere vincolato da automatismi o da indicazioni provenienti da fonti esterne.
L’utilizzo di algoritmi predittivi, soprattutto se dotati di un elevato grado di autorevolezza tecnica, rischia di comprimere tale autonomia. Il giudice può essere indotto, anche inconsapevolmente, ad adeguarsi al risultato algoritmico, attribuendogli un valore quasi determinante. In questo modo, la decisione perde la sua natura autonoma e si trasforma in una forma di ratifica di un esito prodotto altrove.
Si configura così una forma di eteronomia della decisione giurisdizionale, nella quale la responsabilità rimane formalmente in capo al giudice, ma la sostanza della decisione è determinata da un sistema tecnologico. Tale fenomeno, che può essere definito come “delegazione tecnologica della decisione”, rappresenta uno dei rischi più gravi dell’integrazione non regolata dell’intelligenza artificiale nel diritto.
La questione assume una particolare rilevanza nel contesto dell’esecuzione penale, dove le decisioni riguardano non soltanto la libertà personale, ma anche il percorso di reinserimento del condannato. La valutazione della pericolosità sociale e dell’idoneità a beneficiare di misure alternative richiede un’analisi complessa e articolata, che non può essere ridotta a un punteggio numerico.In questo senso, l’incompatibilità tra logica algoritmica e funzione rieducativa emerge con particolare evidenza.
La rieducazione presuppone la possibilità di cambiamento, la capacità del soggetto di evolvere e di modificare il proprio comportamento. L’algoritmo, al contrario, tende a stabilizzare il soggetto sulla base del passato, attribuendogli una probabilità di recidiva che rischia di diventare una profezia autoavverante.
Questa tensione non può essere risolta attraverso un rifiuto totale della tecnologia, ma richiede la costruzione di un modello normativo che ne disciplini l’utilizzo in modo conforme ai principi costituzionali. In questa prospettiva, è possibile delineare un modello di integrazione che può essere definito come “assistenza algoritmica vincolata”.
Tale modello si fonda sull’idea che l’intelligenza artificiale possa essere utilizzata come strumento di supporto, ma non come fonte autonoma di decisione. L’algoritmo può fornire informazioni, suggerire ipotesi, evidenziare correlazioni, ma la decisione finale deve rimanere integralmente nelle mani del giudice. Ciò implica che il risultato algoritmico non possa mai essere vincolante, né direttamente né indirettamente.
Affinché tale modello sia effettivo, è necessario che gli algoritmi utilizzati siano pienamente trasparenti e conoscibili. Le parti devono avere accesso ai criteri di funzionamento del sistema e devono poter contestare i risultati prodotti. La trasparenza non è soltanto una garanzia procedurale, ma un requisito essenziale per la legittimità della decisione.
Inoltre, è fondamentale che la valutazione individuale mantenga un ruolo centrale. L’algoritmo, per sua natura, opera su base generale e statistica; il giudice, invece, deve valutare il caso concreto nella sua specificità. Il rischio è che l’uso dell’intelligenza artificiale conduca a una standardizzazione delle decisioni, in contrasto con il principio di individualizzazione della pena.
In tale contesto, assume un ruolo di particolare rilievo la figura degli esperti previsti dall’art. 80 dell’ordinamento penitenziario. Tali soggetti, dotati di competenze multidisciplinari, sono chiamati a collaborare con la magistratura di sorveglianza nella valutazione della personalità del condannato e nella predisposizione del trattamento.
Nel nuovo scenario tecnologico, gli esperti possono svolgere una funzione di mediazione tra la dimensione algoritmica e quella giuridica. Essi sono in grado di interpretare i dati, di contestualizzarli e di integrarli con elementi qualitativi che sfuggono alla logica statistica. In tal modo, contribuiscono a mantenere la centralità della persona e a evitare che la decisione si riduca a un mero calcolo.
La loro funzione può essere intesa come un correttivo umano all’astrazione algoritmica, capace di restituire complessità a una decisione che rischierebbe altrimenti di essere semplificata. La valorizzazione degli esperti rappresenta dunque una condizione essenziale per un utilizzo costituzionalmente orientato dell’intelligenza artificiale.In conclusione, l’integrazione dell’intelligenza artificiale nell’esecuzione penale rappresenta una sfida che non può essere affrontata con strumenti tradizionali. Essa impone una riflessione profonda sui fondamenti del diritto e sulla natura della decisione giuridica.
La funzione rieducativa della pena, lungi dall’essere un residuo del passato, costituisce il criterio fondamentale per orientare tale riflessione.Il rischio non è la tecnologia in sé, ma la sua autonomizzazione rispetto ai principi costituzionali. L’algoritmo può essere uno strumento utile, ma solo se rimane subordinato alla decisione umana e pienamente integrato in un sistema di garanzie. In caso contrario, esso rischia di trasformarsi in un fattore di disumanizzazione della giustizia, compromettendo la centralità della persona e la legittimazione del sistema.
La sfida per il diritto contemporaneo consiste, dunque, non nel rifiutare l’innovazione, ma nel governarla, costruendo un modello in cui tecnologia e principi costituzionali possano coesistere senza che i secondi vengano sacrificati ai primi. In tale prospettiva, la rieducazione del condannato deve rimanere il punto di riferimento imprescindibile, il criterio attraverso cui valutare la legittimità di ogni trasformazione del sistema penale.
5. Conclusioni
L’analisi condotta ha evidenziato come l’introduzione dell’intelligenza artificiale nei processi decisionali dell’esecuzione penale non rappresenti un semplice aggiornamento tecnico degli strumenti a disposizione della giurisdizione, ma configuri una trasformazione più profonda, destinata a incidere sulla struttura stessa della decisione giuridica. Il passaggio da un modello fondato sulla valutazione individualizzata a uno basato sulla previsione probabilistica segna, infatti, una frattura epistemologica che non può essere ricomposta attraverso meri adattamenti normativi.
La logica algoritmica, fondata sulla generalizzazione statistica e sulla gestione del rischio, si pone in tensione con il paradigma costituzionale della rieducazione, che presuppone la centralità della persona e la possibilità di mutamento. Tale tensione non si esaurisce in una questione di compatibilità tecnica, ma investe il fondamento stesso della legittimazione della pena in uno Stato costituzionale di diritto.
In particolare, l’adozione di strumenti predittivi nel procedimento di sorveglianza comporta il rischio di una progressiva trasformazione della decisione in delega tecnologica, nella quale il giudice, pur mantenendo formalmente la titolarità del potere decisorio, finisce per operare all’interno di un orizzonte cognitivo determinato da sistemi algoritmici. In tale contesto, la responsabilità giurisdizionale si svuota di contenuto sostanziale, mentre la decisione assume i tratti di una ratifica di esiti elaborati secondo logiche estranee al diritto.
L’incompatibilità tra giustizia predittiva e funzione rieducativa emerge, dunque, come strutturale e non contingente. Essa deriva dalla divergenza tra due modelli di razionalità: da un lato, quello giuridico-costituzionale, fondato sulla comprensione del soggetto e sulla sua trasformabilità; dall’altro, quello algoritmico, orientato alla classificazione e alla stabilizzazione del rischio.
Ciò non implica, tuttavia, la necessità di un rifiuto radicale della tecnologia. Al contrario, l’intelligenza artificiale può rappresentare una risorsa preziosa, a condizione che il suo utilizzo sia rigorosamente subordinato ai principi costituzionali e inserito in un quadro di garanzie effettive. In questa prospettiva, il modello di “assistenza algoritmica vincolata” consente di conciliare l’innovazione tecnologica con la tutela dei diritti fondamentali, mantenendo la centralità della decisione umana e assicurando la piena trasparenza e contestabilità degli strumenti utilizzati.
Nell’assetto così delineato, assume un ruolo decisivo la figura degli esperti ex art. 80 O.P., chiamati a svolgere una funzione di mediazione tra sapere tecnico e valutazione giuridica. La loro presenza consente di reintegrare nella decisione elementi qualitativi e relazionali che sfuggono alla logica algoritmica, contribuendo a preservare la dimensione umana del giudizio.
In ultima analisi, la sfida posta dall’intelligenza artificiale all’esecuzione penale non riguarda soltanto l’efficienza del sistema, ma la sua identità costituzionale. Il rischio non risiede nella tecnologia in sé, bensì nella sua autonomizzazione rispetto ai principi che fondano la legittimità della pena.
È pertanto necessario che il diritto assuma un ruolo attivo nel governare tale trasformazione, evitando che la logica del rischio sostituisca quella della responsabilità e che la decisione si riduca a un prodotto tecnico privo di dimensione umana.
La funzione rieducativa della pena, lungi dall’essere un residuo del passato, si configura così come il criterio fondamentale per orientare l’integrazione delle tecnologie emergenti nel sistema penale. Essa impone di riaffermare la centralità della persona e di garantire che ogni decisione continui a essere il risultato di un giudizio consapevole, responsabile e pienamente sindacabile.
Solo in tal modo sarà possibile evitare che l’innovazione tecnologica si traduca in una regressione dei diritti e preservare la coerenza del sistema penale con i valori costituzionali.
In tale prospettiva, la decisione penale non può essere ridotta a esito di un processo computazionale, ma deve rimanere espressione di una valutazione consapevole e responsabile.
Come ricordava Calamandrei, “il giudice è la legge che si fa viva”: ed è proprio questa dimensione umana, dialogica e argomentativa che l’automazione decisionale rischia di compromettere.
Bibliografia essenziale
CANEPA Massimo – MERLO Sergio, Manuale di diritto penitenziario. Le norme, gli organi, le modalità dell’esecuzione delle sanzioni penali, Giuffrè, Milano, 2021.
DELLA CASA Franco – GIOSTRA Glauco, Ordinamento penitenziario commentato, Cedam, Padova, 2020.
FIANDACA Giovanni – MUSCO Enzo, Diritto penale. Parte generale, Zanichelli, Bologna, 2023.
FILIPPONE Chiara – ZITO Luigi, Il caso COMPAS e il tema della giustizia predittiva, tra opacità e distorsioni, Aequita Magazine (ISSN 3035-4803), 2, 2025, DOI: 10.5281/zenodo.18925080.
GARLAND David, The Culture of Control: Crime and Social Order in Contemporary Society, Oxford University Press, Oxford, 2001.
MANTOVANI Ferrando, Diritto penale. Parte generale, Cedam, Padova, 2022.
O’NEIL Cathy, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Publishing, New York, 2016.
PALAZZO, Francesco – BARTOLI Roberto, Corso di diritto penale. Parte generale, Giappichelli, Torino, 2021.
PASQUALE Frank, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, Cambridge (MA), 2015.
RUOTOLO Marco, Diritti dei detenuti e Costituzione, Giappichelli, Torino, 2019.
SARTOR Giovanni, L’intelligenza artificiale e il diritto, Giappichelli, Torino, 2022.
Luigi Zito