How to cite this article / Come citare questo articolo
Bencivenga, G.M. (2026). L’empatia algoritmica nel processo giuridico. Limiti ontologici della Mimesis tecnologica e riscoperta dell’Ars Boni et Aequi. Aequitas Magazine, 3, 1-6.
https://doi.org/10.5281/zenodo.18909660
ABSTRACT (EN)The growing integration of artificial intelligence into legal systems raises fundamental questions regarding the nature of legal judgment and the epistemological limits of automated decision-making. This article critically examines the assumption of algorithmic neutrality by reconstructing the theoretical genealogy of artificial intelligence, starting from the distinction between Alan Turing’s simulation paradigm and Norbert Wiener’s cybernetic approach. Drawing on key perspectives in the philosophy of technology and law – particularly those of Hans Jonas, Bernard Stiegler, and Luciano Floridi – the paper highlights the ontological gap between the computational operation of algorithms and the intentional and reflective dimension of human judgment. From this standpoint, the reduction of legal decision-making to statistical inference models risks transforming justice into a predictive system incapable of addressing the singularity of concrete cases and the axiological dimension of legal interpretation. The analysis also engages with the emerging European regulatory framework, especially Regulation (EU) 2024/1689 on Artificial Intelligence (AI Act), which acknowledges the necessity of maintaining meaningful human oversight in high-risk AI systems. Building on these premises, the article introduces the concept of Algorithmic Empathy, understood not as an anthropomorphic attribution of human qualities to machines but as an epistemic and operational framework through which jurists employ artificial intelligence as a cognitive artifact for hermeneutic exploration. Within this framework, algorithms function as tools for cognitive augmentation – supporting precedent analysis and the exploration of decision-making scenarios – while the responsibility for teleological and axiological synthesis necessarily remains with the human decision-maker. The article concludes by reaffirming the importance of the human-in-the-loop justice paradigm as a necessary condition for preserving law as an ars boni et aequi in the digital age.
ABSTRACT (IT) L’ingresso dell’intelligenza artificiale nei sistemi giuridici solleva interrogativi radicali circa la natura del giudizio giuridico e i limiti epistemologici dell’automazione decisionale. Il contributo analizza criticamente l’idea della neutralità algoritmica, ricostruendo la genealogia teorica dell’intelligenza artificiale a partire dalla distinzione tra il paradigma simulativo di Alan Turing e l’approccio cibernetico di Norbert Wiener. Attraverso il confronto con alcune rilevanti prospettive della filosofia della tecnica e del diritto – in particolare Hans Jonas, Bernard Stiegler e Luciano Floridi – l’articolo evidenzia il divario ontologico tra l’agire computazionale dell’algoritmo e la dimensione intenzionale e cosciente del giudizio umano. In tale prospettiva, la riduzione del processo decisionale giuridico a modelli di inferenza statistica rischia di trasformare la giustizia in un sistema di previsione probabilistica, incapace di cogliere la singolarità del caso concreto e la dimensione assiologica dell’interpretazione giuridica. La riflessione si confronta inoltre con il quadro normativo emergente nell’Unione europea, con particolare riferimento al Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), che riconosce la necessità di mantenere forme di controllo umano nei sistemi di IA ad alto rischio. Muovendo da tali premesse, l’articolo propone il paradigma dell’Empatia Algoritmica, intesa non come antropomorfizzazione della macchina, ma come modalità epistemica e operativa attraverso la quale il giurista utilizza l’intelligenza artificiale quale artefatto cognitivo di esplorazione ermeneutica. In questa prospettiva, l’algoritmo diviene uno strumento di ampliamento cognitivo – utile per l’analisi dei precedenti e la simulazione di scenari decisionali – mentre la responsabilità della sintesi teleologica e assiologica rimane necessariamente affidata al giudizio umano. Il contributo conclude riaffermando la centralità del paradigma human-in-the-loop justice, quale condizione indispensabile per preservare il diritto come ars boni et aequi nell’era digitale.
SOMMARIO: 1. Il “dispositivo complesso”: oltre la neutralità della tecnica – 2. Il limite ontologico: l’assenza del corpo e l’accesso all’universale – 3. Intelletto contro Ragione: la difesa della sintesi giuridica – 4. L’Empatia Algoritmica: un paradigma pedagogico-costruzionista – 5. Conclusioni: Ars Boni et Aequi nell’era digitale.
1. Il “dispositivo complesso”: oltre la neutralità della tecnica
La pervasività odierna della tecnologia non può essere ridotta a mera strumentalità; essa si configura piuttosto come un “dispositivo complesso” che organizza e struttura la vita sociale, introiettando e proiettando modelli di convivenza progettati da forze geo-politicamente determinate1. In tale scenario, l’illusione che l’algoritmo rappresenti un decisore neutro — in quanto privo di passioni umane — costituisce un equivoco epistemologico fatale. Come evidenziato da Teresa Numerico, il dispositivo tecnologico, gestito dai titolari dei Big Data, non è mai uno spazio vuoto, ma un territorio denso di valori impliciti e scelte preordinate2. L’opacità della Black Box algoritmica, unitamente alla segretezza industriale, trasforma la decisione automatizzata in un oracolo insindacabile, spesso latore di pregiudizi (bias) che replicano le discriminazioni storiche, come dimostrato empiricamente dal caso COMPAS nella giurisprudenza statunitense.3
È necessario dunque risalire alle origini della ricerca per comprendere la biforcazione che oggi ci interpella: da un lato la linea di Alan Turing, fondata sulla “simulazione” e sulla capacità della macchina di “fingere” (pretend to be a man) attraverso il linguaggio; dall’altro la linea cibernetica di Norbert Wiener, orientata all’integrazione sistemica.4 L’attuale deriva tecnocratica sembra aver estremizzato la prima istanza, puntando a una macchina che non si limita a simulare, ma pretende di sostituire la decisione umana.
2. Il limite ontologico: l’assenza del corpo e l’accesso all’universale
La critica alla “giustizia predittiva” non può limitarsi al piano funzionale, ma deve investire quello ontologico. Gianfranco Bettetini, in tempi non sospetti, individuava nell’assenza del corpo (embodiment) il limite insuperabile dell’IA.5 Essendo priva di una corporalità situata e plurirelazionata al mondo, la macchina non può accedere all’universale, condizione necessaria per l’esercizio del “buon senso”. L’IA opera nel dominio dell’agere sine intelligere (Floridi): essa processa dati con efficienza sovraumana, ma non comprende il significato delle proprie operazioni. Hans Jonas ammoniva contro la “sfrenata speculazione” di chi attribuisce coscienza a un processo meccanico: “Come non si può ascrivere sensibilità ad un termostato perché è sensibile agli stimoli esterni, tantomeno abbiamo motivo di ascrivere il pensiero ad un processo meccanico”.6 Senza la coscienza, che è sintesi di ragione e sensibilità (“sentire” il diritto), non può esservi Giustizia. L’algoritmo può calcolare la sanzione, ma non può pesarne il valore etico né la finalità rieducativa.
3. Intelletto contro Ragione: la difesa della sintesi giuridica
La distinzione tra macchina e uomo trova una potente chiave di lettura nella dicotomia kantiana tra Intelletto (Verstand) e Ragione (Vernunft), recentemente ripresa da Bernard Stiegler.7 L’IA rappresenta la forma pura dell’Intelletto analitico, capace di scomposizione e calcolo combinatorio. Il diritto, al contrario, è dominio della Ragione: facoltà di sintesi, di critica e di orientamento ai fini. La “governamentalità algoritmica” tenta di ridurre il diritto a pura statistica, eliminando lo scarto tra il fatto (l’essere) e la norma (il dover essere). Tuttavia, come ribadito da Tommaso Edoardo Frosini, la distinzione tra essere e dover essere è il presidio stesso della libertà giuridica.8 Se affidiamo il giudizio alla macchina, riduciamo la complessità del reale a una serie di pattern ricorrenti, abdicando alla funzione essenziale del giurista: la capacità di decidere in condizioni di incertezza e di unicità.
A tale critica di ordine teorico e filosofico sembra oggi corrispondere anche una progressiva presa di coscienza da parte del diritto positivo europeo. Il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), infatti, pur muovendosi sul piano tecnico-regolatorio, traduce in termini normativi la consapevolezza che i sistemi algoritmici non costituiscono strumenti neutrali, ma dispositivi capaci di incidere profondamente sull’esercizio dei diritti fondamentali e sull’equilibrio delle istituzioni democratiche.
Non è casuale, in tal senso, che il legislatore europeo abbia adottato una struttura regolatoria fondata sulla classificazione dei sistemi di IA in base al grado di rischio che essi comportano per l’ordinamento giuridico. L’art. 5 del Regolamento individua infatti alcune pratiche di intelligenza artificiale radicalmente incompatibili con la tutela della libertà individuale, vietando sistemi idonei a manipolare il comportamento umano o a sfruttare condizioni di particolare vulnerabilità.
Allo stesso modo, la categoria dei sistemi di IA ad alto rischio (high-risk systems), tra cui rientrano alcune applicazioni destinate all’amministrazione della giustizia, è sottoposta a rigorosi requisiti di trasparenza, tracciabilità e controllo umano. In tal modo il diritto europeo riconosce implicitamente che l’automazione decisionale non può essere considerata un mero strumento tecnico, ma deve rimanere inscritta all’interno di una catena di responsabilità umana.
Sotto questo profilo, la disciplina europea dell’intelligenza artificiale sembra confermare sul piano normativo l’intuizione teorica già emersa nella riflessione filosofico-giuridica: il processo decisionale non può essere ridotto a pura elaborazione statistica dei dati, ma richiede sempre una sintesi interpretativa che solo l’uomo è in grado di esercitare. Per tali sistemi sono previsti rigorosi requisiti di trasparenza, tracciabilità e controllo umano, proprio al fine di evitare che l’automazione possa sostituirsi alla responsabilità decisionale dell’uomo.
4. L’Empatia Algoritmica: un paradigma pedagogico-costruzionista
Per uscire dall’alternativa sterile tra luddismo e tecnocrazia, propongo l’adozione di un nuovo paradigma relazionale: l’Empatia Algoritmica. Tale concetto non implica l’antropomorfizzazione del software, ma definisce uno “spazio pedagogico” ispirato al costruzionismo di Seymour Papert. Secondo Papert, l’apprendimento diventa “sintonico” quando si basa su tre principi: continuità con le conoscenze pregresse, potenza dei progetti e risonanza culturale.9 Applicando questo modello al diritto, il giurista non deve essere un utente passivo (istruzionismo), ma un “programmatore di senso”. L’IA deve essere utilizzata secondo la logica dell’ “usare per imparare”: un artefatto cognitivo che permette di esplorare scenari, analizzare precedenti e verificare ipotesi, rimanendo però sempre subordinato alla sintesi umana.
In questo “set di costruzione” digitale, l’uomo mantiene il controllo teleologico, utilizzando la macchina come auxilium (protesi) e mai come dominus (sostituto), sempre e solo al fine dell’ “imparare ad usare”. In altre parole, si tratta di una specifica modalità epistemica e operativa attraverso la quale il giurista utilizza l’algoritmo come artefatto cognitivo di esplorazione ermeneutica.
L’empatia algoritmica si configura, pertanto, come una relazione asimmetrica tra soggetto interpretante e dispositivo computazionale: mentre la macchina opera sul piano dell’analisi combinatoria dei dati, l’interprete umano conserva il primato della sintesi teleologica e assiologica propria del giudizio giuridico.
In tale prospettiva, l’algoritmo non diviene un sostituto del decisore umano, ma uno strumento di ampliamento cognitivo (cognitive extension), capace di supportare l’indagine sui precedenti, l’analisi dei pattern decisionali e la simulazione di scenari giuridici complessi. L’empatia algoritmica consiste dunque nella capacità del giurista di comprendere le logiche operative del sistema tecnologico, utilizzandolo in modo riflessivo e critico, senza mai abdicare alla responsabilità decisionale che costituisce il nucleo essenziale della funzione giurisdizionale.
L’Empatia Algoritmica finisce così per rappresentare una forma di alfabetizzazione giuridico-tecnologica avanzata, nella quale il giurista diviene un autentico “programmatore di senso”, capace di integrare la potenza analitica della macchina con la dimensione assiologica e prudenziale del diritto.
5. Conclusioni: Ars Boni et Aequi nell’era digitale
In ultima istanza, la proposta dell’Empatia Algoritmica mira a salvaguardare la definizione celsina del diritto quale Ars Boni et Aequi. L’equità (epieikeia), come insegnava Aristotele, è il correttivo della legge laddove questa pecca per la sua universalità.10 Essa richiede la presa in carico del caso concreto nella sua irripetibile singolarità. L’algoritmo, che per sua natura generalizza e standardizza, è ontologicamente incapace di equità, sic et simpliciter. Solo riaffermando la centralità del giudizio umano, inteso come sintesi di logica e assiologia, potremo evitare che la giustizia si trasformi in una procedura automatica, asettica, innaturale.
In tale prospettiva, il problema non consiste nel rifiuto della tecnologia, ma nella definizione di un modello di integrazione tra intelligenza artificiale e decisione giuridica che preservi la responsabilità umana. Proprio in tale direzione si colloca il principio ormai centrale nel dibattito internazionale dell’human-in-the-loop justice, secondo cui ogni processo decisionale automatizzato deve rimanere strutturalmente inserito all’interno di una catena di responsabilità umana.
Applicato al contesto giuridico, questo paradigma implica che l’algoritmo possa assistere il giudice nell’analisi dei dati e nella ricostruzione dei precedenti, ma non possa mai sostituirsi alla valutazione prudenziale che caratterizza l’atto del giudicare. Il diritto, infatti, non è un mero sistema di calcolo probabilistico, bensì un processo interpretativo orientato alla realizzazione del giusto nel caso concreto.
La tecnologia deve dunque rimanere uno strumento nelle mani dell’uomo e non il suo sostituto: solo mantenendo il giudizio umano al centro del circuito decisionale sarà possibile evitare che la giustizia si trasformi in una procedura automatica e impersonale, preservando quella dimensione di equilibrio tra norma e vita che già i giuristi romani sintetizzavano nella celebre definizione del diritto quale Ars Boni et Aequi.
1 T. Numerico, Intelligenza artificiale e algoritmi: datificazione, politica, epistemologia, in Consecutio Rerum, 3.6 (2019), p. 241.
2 Ibidem.
3 Cfr. A. Flores, K. Bechtel, C. Lowenkamp, False Positives, False Negatives, and False Analyses, in Federal Probation, 80.2 (2016); F. Donati, Intelligenza artificiale e giustizia, in A. D’Aloia (cur.), Intelligenza artificiale e diritto, Milano 2020.
4 Sulla distinzione tra le due linee di ricerca cfr. N. Wiener, Cybernetics, MIT Press, 1948 e A.M. Turing, Intelligent Machinery (1948), in The Essential Turing, Oxford 2004.
5 G. Bettetini, La simulazione visiva, Bompiani, Milano 1992, pp. 102 ss.
6 H. Jonas, Sull’orlo dell’abisso. Conversazioni sul rapporto tra uomo e natura, Einaudi, Torino 2000, p. 45.
7 A. Rouvroy, B. Stiegler, Il regime di verità digitale. Dalla governamentalità algoritmica a un nuovo Stato di diritto, in La Deleuziana, 3 (2016).
8 T.E. Frosini, L’orizzonte giuridico dell’intelligenza artificiale, in A. Patroni Griffi (cur.), Bioetica, diritti e intelligenza artificiale, Mimesis, 2023, p. 201.
9 S. Papert, Mindstorms. Children, Computers, and Powerful Ideas, New York 1980 (trad. it. Mindstorms: bambini computers e creatività, Milano 1984).
10 D. Ceccarelli Morolli, Il concetto di ‘limite’ nel diritto (romano). Brevi riflessioni, in Roma e America online, 1 (2023), p. 81.
Bibliografia essenziale
Bencivenga, G.M. (2025). Alla ricerca di una possibile Empatia Algoritmica. Modelli etico-giuridici dell’IA, in Iura & Legal Systems, Vol. 12, n. 3, pp. 41-54.
Bettetini, G. (1992). La simulazione visiva, Bompiani, Milano.
Ceccarelli Morolli, D. (2023). Il concetto di ‘limite’ nel diritto (romano), in Roma e America online, 1.
Floridi, L. (2022). Etica dell’intelligenza artificiale, Raffaello Cortina, Milano.
Jonas, H. (2000). Sull’orlo dell’abisso, Einaudi, Torino.
Numerico, T. (2019). Intelligenza artificiale e algoritmi, in Consecutio Rerum, 3.6.
Papert, S. (1984). Mindstorms: bambini computers e creatività, Emme Edizioni, Milano.
Stanzione, P. (2024). Regolare il futuro, Relazione annuale Garante Privacy.
Stiegler, B., Rouvroy, A. (2016). Il regime di verità digitale, in La Deleuziana, 3.
Gerardo Marco Bencivenga