Verso una giustizia predittiva e prescrittiva già dal 2021

Nell’accordo quadro del 30 settembre 2021, sottoscritto tra il Centro Elettronico di Documentazione (C.E.D.)1 della Corte di Cassazione e la Scuola Universitaria Superiore IUSS di Pavia, il giudice di legittimità dichiara espressamente l’obiettivo che si pone con questo atto.

Nell’art. 2 rubricato “Finalità” l’intento comune con IUSS è di “valorizzazione del patrimonio conoscitivo costituito dal corpus della giurisprudenza italiana ed europea, valorizzazione da realizzarsi attraverso l’uso degli strumenti di legal analytics (LA)”, consapevole però che questo è “un ambito tecnico nel quale confluiscono diverse discipline”, come data science2, intelligenza artificiale (AI), machine learning (ML)3, natural language processing (NLP) e statistica.

Dove adottare strumenti di legal analytics significa sostanzialmente ottenere delle soluzioni predittive attraverso l’analisi comparata di dati afferenti a casi uguali o simili già risolti, aggregati per individuare la soluzione per una nuova questione.

Così da potere individuare l’orientamento dei giudici di merito e di legittimità su specifiche norme o eccezioni, “avvocati ed esperti legali possono identificare rapidamente tendenze, probabilità di successo legale o addirittura ottimizzare la propria strategia legale utilizzando statistiche avanzate. Ciò include lo studio dei dati giudiziari, la gestione del rischio e la giustizia predittiva”.4

Per giustizia predittiva si intende l’analisi di una grande quantità di decisioni giudiziarie mediante tecnologie di intelligenza artificiale al fine di formulare previsioni sull’esito di alcune tipologie di controversie specialistiche (per esempio, quelle relative alle indennità di licenziamento o agli assegni di mantenimento)… conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva”.5

È uno strumento già utilizzato da tempo dagli studi legali di stampo anglosassone per le caratteristiche del diritto applicato di basarsi sul precedente, mentre gli esperti hanno sempre sottolineato la difficoltà di impiegarlo nel civil law.

È indubbio come il ricorso al legal analytics da parte degli studi legali aiuti i professionisti a costruire strategie difensive, a preparare le prove testimoniali e poi ad analizzarle e ancor prima a decidere se sia il caso o meno di intraprendere quel giudizio, considerando le possibilità statistiche di successo, spesso colmando con l’incrocio dei big data, il gap dell’esperienza e dell’intuizione – che in fondo poggia sulla prima – grazie all’algoritmo.

In ambito aziendale il sistema facilita il lavoro del settore legale per quanto concerne la gestione del rischio e la verifica che la situazione reale sia conforme alle normative vigenti, come il GDPR6 e rende più rapido il controllo sugli obblighi contrattuali aziendali, lasciando all’intelligenza artificiale l’analisi dei documenti, per potersi concentrare invece su quella contrattuale.

Per Data Science7si intende invece lo studio dei dati sulla scorta di un approccio multidisciplinare che combina conoscenze matematiche, statistiche, di intelligenza artificiale e ingegneria informatica perché prende in esame grandi quantità di dati e la velocità ed efficienza dei risultati è oggi assicurata proprio dall’utilizzo dell’intelligenza artificiale e del machine learning.

Ma mentre gli algoritmi del software sono utilizzati per ottenere informazioni più dettagliate, prevedere i risultati e prescrivere la serie di operazioni più adeguate con tecniche di machine learning come l’associazione, la classificazione e il clustering8applicate al set di dati esaminati, i data science creano grafici e diagrammi per rappresentare tendenze e previsioni maniera sintetica sì da aiutare chi è interessato a comprenderli e utilizzarli per le proprie decisioni.

Le possibilità offerte dal data science sono di quattro tipi: un’analisi descrittiva9, una diagnostica10, un’altra predittiva11 e infine prescrittiva.12

Si va verso una Intelligenza Artificiale Agentica (Agentic AI), ossia un’intelligenza artificiale caratterizzata dall’autonomia e dalla capacità di apprendimento continuo e quindi in grado di operare in ambienti complessi assumendo decisione proprie, pianifica azioni e si adatta dinamicamente a situazioni mutevoli, senza un intervento diretto e costante da parte dell’uomo perché in grado di comprendere ed elaborare il linguaggio naturale.

Continuando nell’esame dell’accordo del 30 settembre 2021, all’art. 3 rubricato “Obiettivi”, la Corte di Cassazione al comma 1 ribadisce che tre sono i principali che si intendono perseguire con l’attività di ricerca sui temi di cui all’articolo 2, ossia: “a) predizione dell’esito dei processi decisionali giudiziari, amministrativi e politici (prediction), b) estrazione di argomenti giuridici dal corpus delle sentenze e decisioni di Italgiure (augument mining), c) creazione automatica di massime (sommarization), c) strumenti di creazione automatica di documenti (document builder), nonché altre possibilità di valorizzazione del patrimonio documentario di Italgiure”.

Attraverso questo accordo il C.E.D. della Corte di Cassazione ha ampliato l’ambito di applicazione della cosiddetta informatica giuridica, in quanto nelle premesse dell’accordo precisa chi sia e di cosa si occupi il Centro Elaborazione Dati ed elenca le attività comprese in quell’espressione: “C.E.D. è una struttura autonoma, alle dirette dipendenze del Primo Presidente della Corte di Cassazione, con il compito istituzionale di fornire a tuti i magistrati italiani ed europei e al pubblico degli abbonati, servizi informatici aventi a oggetto la realizzazione, la gestione e la messa a disposizione per la consultazione degli archivi di giurisprudenza e di legislazione (c.d. informatica giuridica), nonché di assicurare alle strutture amministrative e ai magistrati della Corte servizi informatici destinati concernenti la gestione informatica dei processi civili e penali (c.d. informatica giudiziaria)”.

E mentre è facile da comprendere, perché tangibile, l’applicazione ormai da anni dell’informatica giudiziaria,13 non è altrettanto evidente capire cosa sia compreso nell’espressione informatica giuridica, soprattutto perché non c’é una definizione normativa e quelle presenti sono di stampo empirico e una prima classificazione è tra informatica giuridica in senso stretto e normativa giuridica in senso lato.

Invero la prima è l’Informatica giuridica documentale o documentaria, la seconda tratta le attività informatiche tecno-pratiche applicate al diritto e quindi non solo l’Informatica giudiziaria14 ma soprattutto quella giuridica documentale15 a porre maggiori problemi.

Fino all’intervento dell’Accordo quadro la Corte di Cassazione non pare abbia mai superato il momento meramente informativo nell’utilizzo degli strumenti informatici e conferma potrebbe essere quella premessa in cui parla delle attività svolte dal C.E.D. Nella descrizione degli obiettivi invece si può leggere una dichiarazione aperta del fatto di volere spingere l’automazione a produrre autonomamente le attività del giurista nell’assumere decisioni intese come soluzioni a problemi, non fermandosi alla mera documentazione degli stessi.

Tutto questo fa insinuare il dubbio che già dal 2021 la Corte di Cassazione sia passata a un “sistema informatico decidente”.16

Nè tanto meno a mio avviso la ricerca di certezza e celerità del diritto possono giustificare la sostituzione di un algoritmo con una decisione umana, per quanto di errori e anche gravi sia stati commessi nell’interpretazione e applicazione della norma in contrasto spesso con precedenti in materia.17

Ridurre il campo di intervento del giudice come interprete della norma giuridica applicata al caso concreto significa sostanzialmente eliminare la “capacità creativa” dell’avvocatura e in parte della dottrina e soprattutto non prendere in esame le peculiarità del caso specifico che spesso sono determinanti nell’assumere una soluzione piuttosto che un’altra.

Ed proprio la caratteristica strutturale degli strumenti di IA che si basano su modelli di apprendimento automatico, ereditando pregiudizi dai dati con cui sono stati addestrati, che possono portare a decisioni discriminatorie o non conformi agli standard legali.

D’altro canto non si può non condividere una richiesta di “reale prevedibilità della giurisprudenza18 quando la Corte di Cassazione “non è in grado per lo stesso suo carico di lavoro di garantire l’osservanza e l’uniforme interpretazione della legge, l’unità del diritto oggettivo nazionale” come richiesto dall’art. 65 dell’Ordinamento Giudiziario.19

La prevedibilità20 è assurta a valore, declinata in alcuni casi in termini di “calcolabilità del diritto21 che non sia però una “calcolabilità senza valori”.22

In una realtà caratterizzata dalla crisi della legge e della politica un posto di rilievo è occupato dalla giurisprudenza diventando “diritto giurisprudenziale” perché formato con l’apporto concreto dei giudici per realizzare una legalità sostanziale.

Altro poi è il problema della cosiddetta “discrezionalità giudiziaria23 che non aiuta certo alla prevedibilità della sua decisione e sarebbe necessario che il “giudice facesse buon uso della propria discrezionalità24 anche rispettando il precedente, soprattutto quando esso è espresso dalla Corte di Cassazione a Sezioni Unite.

Merita di essere menzionata, sebbene datata, l’ordinanza n. 23675 del 6 novembre 2014 della Corte di Cassazione a Sezioni Unite, perché parla di “salvaguardia dell’unità e stabilità dell’interpretazione giurisprudenziale (massimamente di quella del giudice di legittimità e, in essa, di quella delle sezioni unite)” che “è ormai da considerare – specie dopo l’intervento del Decreto Legislativo n. 40 del 2006 e della Legge n. 69 del 2009, in particolare con riguardo alla modifica dell’articolo 374 c.p.c. ed all’introduzione dell’articolo 360 bis – alla stregua di un criterio legale di interpretazione delle norme giuridiche.

Non l’unico certo e neppure quello su ogni altro prevalente, ma di sicuro un criterio di assoluto rilievo.

Occorre dunque, per derogarvi, che vi siano buone ragioni.

E, quando si tratta di interpretazione delle norme processuali, occorre che vi siano ottime ragioni, come insegna il travaglio che ha caratterizzato negli ultimi anni l’evoluzione giurisprudenziale di queste sezioni unite civili con riguardo all’overruling in materia di interpretazione di norme processuali, posto che, soprattutto in tale ambito, la conoscenza delle regole (quindi, a monte, l’affidabilità, prevedibilità e uniformità della relativa interpretazione) costituisce imprescindibile presupposto di uguaglianza tra i cittadini e di giustizia del processo medesimo”.

Ed ecco poi il passaggio importante che porta a escludere l’IA come generatrice di giurisprudenza percettiva:

“…È per questo che la creatività dell’interpretazione giurisprudenziale deve interpellare il senso di misura e soprattutto il senso di responsabilità dell’interprete, dovendo, al di là delle convinzioni tecnico-giuridiche soggettive dei singoli giudici o dei singoli collegi, essere sempre considerati i parametri della giustizia del processo – prima ancora che delle singole regole che lo informano – intesa come valore tendenzialmente condiviso.

. [ciò]impone certamente al giudice innanzitutto di valutare con estrema attenzione la sussistenza o meno di buone ragioni per il mutamento di un indirizzo giurisprudenziale e, prima ancora, di individuare quali siano le condizioni legittimanti l’evoluzione interpretativa.

In proposito non esistono formule matematiche. È, come detto, un problema di equilibrio e misura di responsabilità”.

È indubbio che l’IA possa mettere a disposizione un bagaglio di informazioni enorme, contemporaneamente e prefigurare possibili scenari, così da portare da un lato a evitare cause temerarie o con scarsa possibilità di successo e dall’altro decisioni trasparenti con una circolarità giurisprudenziale tra il I e il II grado mediante il superamento di decisioni contrastanti.

L’IA è però priva di quei tre elementi che le Sezioni Unite indicano come essenziali perché il processo sia se non giusto almeno ragionevole, proprio perché deriva dall’applicazione al caso concreto, che non è frutto di un semplice calcolo matematico o statistico: “la intrinseca creatività dell’interpretazione giurisprudenziale, il principio del giusto processo e la funzione nomofilattica del giudice di legittimità [concetti che ]si incrociano: il nodo che essi formano tra loro è già il tessuto possibile di un processo che sia, sotto vari profili, innanzitutto ragionevole, per mutuare un aggettivo pregnante utilizzato dal legislatore costituzionale in tema di processo giusto”.

Uno dei rischi più significativi dell’IA è rappresentato dagli errori, definiti come “allucinazioni giurisprudenziali quando l’IA genera risultati errati che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri”.25

La questione è balzata agli onori della cronaca per l’indicazione da parte di alcuni avvocati di citazioni giurisprudenziali inesistenti o errate nei propri atti perché redatti da una collaboratrice di studio ricorrendo all’intelligenza artificiale generativa, come ChatGPT.

Si fa riferimento all’ordinanza del Tribunale di Firenze, Sezione Imprese, resa il nell’ambito del reclamo promosso in seguito al sequestro concesso inaudita altera parte di tutta la merce contraffatta e la loro descrizione, nonché il sequestro delle scritture contabili per avere l’azienda citata utilizzato sulle t-shirt di sua produzione, senza alcuna autorizzazione, delle vignette satiriche26 raffiguranti vari noti prodotti commerciali, di cui era la società reclamante autore nonché titolare del marchio e del domain name del sito web.

La questione interessante è quella relativa alla richiesta di condanna di ex art. 96 c.p.c. avanzata in sede di comparsa di costituzione e risposta sulla base di sentenze inesistenti o sebbene reali, di contenuto differente rispetto a quello riportato.

Il collegio letta la comparsa, aveva concesso note autorizzate proprio sulle sentenze citate27 e il difensore della società costituita ha dichiarato che i riferimenti giurisprudenziali nell’atto erano frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza.

Lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non aveva nulla a che vedere con tale argomento.

La reclamata, pur riconoscendo l’omesso controllo sui dati così ottenuti, ha chiesto lo stralcio di tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva.

Il reclamante che aveva evidenziato l’errore di verifica delle ricerche effettuate e l’abusivo utilizzo dello strumento processuale, aveva chiesto la condanna di controparte ex art. 96 c.p.c. per aver in questo modo influenzato la decisione del collegio.

Il Collegio ha escluso la condanna per lite temeraria perché “l’indicazione di estremi di legittimità nel giudizio di reclamo ad ulteriore conferma della linea difensiva già esposta dalla si può quindi considerare diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la non applicabilità delle disposizioni di cui all’art. 96 c.p.c.”.28

Il problema è rappresentato dal fatto che i sistemi attuali di IA sono programmati proprio per dare sempre una risposta che sia quanto “più probabile” possibile, ma non è detto che sia vera o quanto meno corretta.29

E “la risposta più probabile” è quella più prossima alla possibilità tra le informazioni che ha nel suo data base che per quanto ampio è pur sempre limitato e finito.

In un ambiente così costruito è normale incorrere in allucinazioni e ciò può riguardare non solo l’avvocatura ma anche la magistratura con risvolti più seri sulla vita altrui se proviene da chi non ha una forma di controllo sulle proprie decisioni se non il grado superiore, con gli inevitabili costi, tempi e patemi d’animo dei malcapitati.

Il New York Times ha indicato in una forbice compresa tra il 3% e il 27% le risposte delle AI afflitte da allucinazioni.

Oltre al numero limitato dei dati presenti nel proprio data base altro problema è rappresentato dall’impossibilità di comprendere fino in fondo come un sistema di deep learning arrivi a un determinato output, è il cosiddetto “black box problem” ossia “sistemi la cui logica decisionale risulta opaca e difficilmente interpretabile dagli utenti”.30

Cioè non si comprende il procedimento che ha portato a quel risultato e questo determina la sfiducia degli utenti per i quali è difficile da accettare un risultato di cui non è comprensibile la logica, soprattutto in ambiti come quello della giustizia, della distribuzione delle risorse e della ricerca del personale dove le scelte sono vissute come un’ingiustizia e per gli errori commessi è difficile attribuirne la responsabilità.

C’é quindi un problema di verificabilità di dati che ab origine potrebbero contenere errori (bias), e di loro aggiornamento, nonché di individuazione procedimento attraverso il quale dalla loro elaborazione si arrivi a quell’output.

Nel 2016 la statunitense Defense Advanced Research Projects Agency (DARPA)31, ha dato vita a un progetto per rendere più chiaro il funzionamento dell’IA c.d. XAI program (Explainable Artificial Intelligence).

Non si tratta di una spiegazione puntuale e precisa ma un insieme di best pratice che sono alla base del funzionamento dell’Intelligenza Artificiale, ancora di un insieme di principi di design, per spiegare gli effetti e progettare sistemi di IA più semplici e infine un insieme di strumenti sempre più efficienti.

L’obiettivo della XAI cioè di questa disciplina che vuole rendere noto all’esterno il funzionamento è di “Creare nuovi sistemi di machine learning, che sapranno spiegare le loro motivazioni, individuando punti di forza e debolezze, oltre a trasmettere una comprensione in merito al loro futuro comportamento”.32

Perché alla base della fiducia c’è la conoscenza, che a sua volta crea empatia.

E con l’explanaible AI (XAI) si vuole realizzare un sistema di intelligenza artificiale responsabile, che includa oltre a fattori di trasparenza e spiegabilità propri delle XAI anche di imparzialità, equità, governance dei dati, privacy, accountability (responsabilità), sicurezza, sostenibilità ecologica-ambientale, e molto altro.

Le domande che ci si pone sono: come è stato allenato il modello di machine learning? Quali dati sono stati utilizzati? Vengono effettuati valutazione e correzione di bias?

Alla base di della necessità di offrire spiegazioni sul funzionamento sta la cosiddetta Human-Centered-AI, approccio “antropocentrico” nello sviluppo e nell’utilizzo di soluzioni basate su tecniche avanzate di intelligenza artificiale, per fare in modo che le persone comprendano le interazioni uomo-macchina e assumano decisioni una volta che siano più informate, effettuino analisi più efficaci e in generale possano vivere una esperienza digitale migliore.


1 Il C.E.D. si autodefinisce nell’Accordo quadro “autonoma struttura, alle dirette dipendenze del Primo Presidente della Corte di Cassazione con il compito istituzionale di fornire a tutti i magistrati italiani ed europei e al pubblico degli abbonati, servizi informatici aventi a oggetto la realizzazione, la gestione e la messa a disposizione per la consultazione degli archivi di giurisprudenza e di legislazione (c.d. Informatica giuridica), nonché di assicurare alle strutture amministrative e ai magistrati della Corte servizi informatici destinati concernenti la gestione informatica dei processi civili e penali (c.d. Informatica giudiziaria)”.

2 La Data Science è lo studio dei dati per estrarre informazioni dettagliate per il business. È un approccio multidisciplinare che combina principi e pratiche nei campi di matematica, statistica, intelligenza artificiale e ingegneria informatica per analizzare grandi quantità di dati. Questa analisi aiuta i data scientist a porre e rispondere a domande come: cosa è successo, perché è successo, cosa accadrà e cosa si può fare con i risultati.

3 Il machine learning è la scienza dell’addestramento di macchine al fine di analizzare e apprendere dai dati.

4Le Legal Analytics consiste à appliquer des méthodes analytiques et de big data pour extraire des perspectives et des modèles utiles à partir de textes et de données juridiques. Ainsi, avocats et juristes peuvent identifier rapidement des tendances, des probabilités de succès légal, ou encore optimiser leur stratégie juridique à l’aide de statistiques avancées. Cela comprend l’étude de données judiciaires, la gestion des risques ou encore ljustice prédictive”.

5 Cepej -Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata il 3-4 dicembre 2018.

6 L’acronimo GDPR sta per General data protection regulation, relativo alla protezione dei dati personali, entrato in vigore il 25 maggio 2018 come Regolamento europeo n. 2016/679. Si propone di tutelare sia la protezione dei dati sia la loro circolazione, dove per “dato personale” si intende ogni “informazione riguardante una persona fisica identificata o identificabile (‘interessato’)”.

7 Data Science è un termine generico per tutti gli aspetti dell’elaborazione dei dati, dalla raccolta alla modellazione fino agli approfondimenti delle informazioni dettagliate. Spesso adoperato come sinonimo di analisi dei dati, in realtà quest’ultima è compresa nel Data Science.

8 Il clustering è un metodo di raggruppamento dati tra loro correlati secondo relazioni probabili per cercare di scoprire nuovi schemi, relazioni tra loro e anomalie o notizie false. Si differenzia dal semplice ordinamento dei dati perché qui vengono classificati secondo un preciso ordine che invece non c’è nel clustering in cui ci sono associazioni in relazione a ciò che è quanto più probabile o simile.

9 L’analisi descrittiva esamina i dati per estrarre informazioni dettagliate sul passato o presente e lo visualizza in grafici a torta, grafici a barre, grafici a linee, tabelle.

10 L’analisi diagnostica è un esame dettagliato e approfondito per arrivare alle ragioni in base alle quali si è verificato quell’evento.

11 L’analisi predittiva utilizza i dati storici per fare previsioni accurate su quello che potrebbe accadere in futuro. Le tecniche adoperate sono: il machine learning, la previsione, l’abbinamento di schemi e la modellazione predittiva e tutte si prefiggono come obiettivo a comprendere le connessioni tra i dati e quindi l’azienda interessata ad esempio programmare un’attività di marketing o pubblicità mirata volta ad anticipare i bisogni individuati dei clienti.

12 L’analisi prescrittiva non solo prevede ciò che è probabile che accadrà ma va oltre suggerendo anche cosa fare in tale circostanza.

13 L’informatica giudiziaria, o giuridico-gestionale, o ancora di gestione è stata definita come “automazione dell’intero processo giudiziario”, nel senso che si occupa dell’informatizzazione delle procedure giudiziarie, o meglio la gestione informatizzata di tutti gli atti e gli adempimenti legati all’ attività processuale e procedurale civile, amministrativa e penale , dai servizi di cancelleria, alla stesura, alla conservazione e al reperimento degli atti del processo (cfr. BIN Roberto – LUCCHI Nicola, Informatica per le scienze giuridiche, CEDAM, Padova, 2002).

14 Detta anche giuridico-gestionale.

15 Detta anche decisionale o modellistica giuridica o metadocumentaria o meglio intelligenza artificiale nel diritto.

16 Così Giacomo Oberto, Magistrato ordinario della Repubblica.

17 Si ricorda che il precedente per quanto non vincolante ma solo persuasivo ha una particolare valenza in ragione delle argomentazioni a sostegno e della provenienza delle pronunce.

18 CASTELLI Claudio, La giustizia predittiva: promessa o mistificazione, in Rivista Lavoro Diritti Europa, n.1/2025, p. 5.

19 CASTELLI Claudio, op. citata.

20 Sulla tematica si rinvia a IRTI Natalino, Un diritto incalcolabile, Giappichelli, Torino, 2016; BESSONE Mario (a cura di), Diritto giurisprudenziale, Giappichelli, Torino, 1996; RATTI Giovanni Battista, Some remarks on precedent and analogy, in Materiali per una storia della cultura giuridica, n.1/2017; PATRONI GRIFFI F., Tecniche di decisione e prevedibilità nella sentenza amministrativa, in Riv. Dir. priv. n.4/2016 e in Calcolabilità giuridica (a cura di A.Carleo), Bologna, 2017, p. 175

21 Intervento alla tavola rotonda nell’ambito del Convegno organizzato dal Consiglio Nazionale Forense “Il valore del precedente nel sistema ordinamentale” – Roma, 13 ottobre 2017

22 L’ammonimento è del Prof. Pier Giuseppe Monateri.

23 BARAK Aharon, La discrezionalità del giudice (trad.it. di Judicial Discretion, Yale University Press, 1989), Giuffré, Milano 1995.

24 BARAK Aharon, op. citata.

25 Si consulti https://www.agi.it/cronaca/news/2025-03-28/giudici-avvocati-uso-improprio-chatgpt-30654198.

26 Ordinanza: “marchio registrato” n. 302021000009920, caratterizzato dalla rappresentazione grafica di una bocca e due occhi stilizzati, che rappresentano un carrello della spesa capovolto, questo segno distintivo rappresenta anche la “firma dell’autore”.

27Sulla sola questione inerente i precedenti giurisprudenziali oggi contestati”, cfr. ordinanza del Tribunale di Firenze.

28 Cfr. ordinanza del Tribunale di Firenze.

29 Si consulti https://www.diritto.it/allucinazioni-ia-tutele-gdpr.

30 CALZA Edoardo, L’Intelligenza Artificiale come black-box: Il problema della trasparenza e le sfide dell’explainability, 19 marzo 2025, su https://www.giovaniuniversitariparlamento.it.

31 La Defense Advanced Research Projects Agency (DARPA) (Agenzia per i progetti di ricerca avanzata di difesa) è un’agenzia governativa del Dipartimento della difesa degli Stati Uniti d’America incaricata dello sviluppo di nuove tecnologie per uso militare. È indipendente nel proprio operato dalle influenze di altre agenzie governative e fa rapporto esclusivamente ai più alti ranghi del Dipartimento della difesa.

32 CARABANTES Manuel, Black-box artificial intelligence: an epistemological and critical analysis, in AI & Society (35.7) (ISSN: 1435-5655), giugno 2020. ZEDNIK Carlos, Solving the black box problem: A normative framework for explainable artificial intelligence, in Philosophy & technology (34.3) (ISSN: 2210-5441), 2021.

*** This work is peer-reviewed ***
Copyright © Author(s)
Licensed under Creative Commons Attribution-NonCommercial 4.0 International

Scan QR-code for the Journal's Code of Ethics on a different device

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *