Avvocati e magistrati: uso distorto dell’intelligenza artificiale

ASTRACT (EN): The article examines the impact of artificial intelligence on legal practice and judicial activity, focusing on the distorted use of AI tools and the resulting professional and disciplinary liability. Starting from the European and national regulatory framework, which classifies the use of AI for the application and interpretation of legal rules as high-risk, the paper analyses the obligations of transparency, human oversight and professional competence imposed on lawyers and judges. Particular attention is devoted to the first judicial decisions concerning so-called legal hallucinations and to the institutional responses adopted, also from a comparative perspective. The contribution argues that artificial intelligence must remain a support tool within a framework of non-delegable human responsibility, in order to safeguard judicial autonomy, legal certainty and the proper functioning of the justice system.

ASTRACT (IT): Il contributo analizza l’impatto dell’intelligenza artificiale sull’attività forense e giudiziaria, con particolare riferimento all’uso distorto degli strumenti di IA e alle conseguenti responsabilità professionali e disciplinari. Muovendo dal quadro normativo europeo e nazionale, che qualifica come ad alto rischio l’impiego dell’IA per l’applicazione e l’interpretazione delle norme giuridiche, l’articolo esamina gli obblighi di trasparenza, supervisione umana e competenza gravanti su avvocati e magistrati. L’attenzione si concentra sulle prime pronunce giurisprudenziali in materia di c.d. allucinazioni giuridiche e sulle risposte dell’ordinamento, anche in prospettiva comparata. Il contributo evidenzia come l’intelligenza artificiale debba rimanere uno strumento di supporto, inserito in una cornice di responsabilità non delegabile, al fine di preservare l’autonomia del giudizio e il corretto funzionamento del sistema giustizia.


SOMMARIO: 1. Introduzione – 2. Quadro normativo e dentologico – 3. Rischio sistemico e supervisione umana 4. Conclusioni.


1. Introduzione

L’impiego dell’intelligenza artificiale nell’attività forense e giudiziaria rappresenta una delle sfide più rilevanti per il sistema giustizia contemporaneo, incidendo direttamente su funzioni centrali quali l’interpretazione del diritto, la valutazione dei fatti e l’assunzione delle decisioni. L’uso di sistemi di IA solleva, infatti, questioni di particolare complessità in termini di responsabilità, competenza e vigilanza, soprattutto nei casi in cui l’attività automatizzata rischi di prevalere sull’apporto umano.

Il recente quadro normativo europeo e nazionale qualifica come ad alto rischio l’impiego dell’intelligenza artificiale per l’applicazione e l’interpretazione delle norme giuridiche, imponendo obblighi stringenti di trasparenza e supervisione umana. Le prime esperienze applicative e le pronunce giurisprudenziali intervenute in materia di cosiddette allucinazioni giuridiche mostrano come un uso distorto dell’IA possa incidere negativamente sulla qualità della prestazione professionale e sull’affidabilità del processo decisionale.

In tale contesto, l’intelligenza artificiale non può essere considerata un mero ausilio neutro, ma deve essere ricondotta entro una cornice di responsabilità non delegabile, nella quale la competenza del professionista e il controllo umano restano elementi imprescindibili per garantire il corretto funzionamento del sistema giustizia.

2. Quadro normativo e deontologico

Il 10 ottobre 2025 è entrata in vigore in Italia la L. 10 ottobre 2025, n. 132, recante Disposizioni e deleghe al Governo in materia di intelligenza artificiale, normativa che si colloca nel solco tracciato dal Regolamento (UE) 2024/1689 (AI Act). Quest’ultimo qualifica come ad alto rischio l’impiego di sistemi di intelligenza artificiale destinati all’applicazione o all’interpretazione delle norme giuridiche, imponendo stringenti obblighi di trasparenza, supervisione umana significativa e valutazione di conformità ex ante. In caso di violazioni, il quadro sanzionatorio previsto può giungere fino a 35 milioni di euro o al 7% del fatturato globale annuo.

Alcune disposizioni della L. 132/2025 risultano immediatamente applicabili, in particolare quelle concernenti l’obbligo di informativa cui sono tenuti tutti i professionisti[1] e, in modo specifico, gli avvocati nei confronti dei propri assistiti. In tale prospettiva, l’art. 13, comma 2, L. 132/2025 stabilisce che: «Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale[2] utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo».

La disposizione fa riferimento all’utilizzo effettivo di strumenti di intelligenza artificiale a supporto dell’attività intellettuale, la quale deve rimanere prevalente rispetto a quella automatizzata, nel rispetto dei principi etici[3] e giuridici dell’ordinamento. Tali principi comprendono:
– il principio di trasparenza, inteso come obbligo di informare il cliente circa l’uso dell’IA;
– il principio di proporzionalità, che impone di limitare l’impiego dell’IA alle sole funzioni di supporto;
– il principio di sicurezza e protezione dei dati, con particolare riguardo ai dati sensibili;
– il principio di accuratezza, che richiede un controllo costante dell’output generato;
– il principio di autonomia decisionale, in forza del quale la decisione finale resta sempre rimessa all’avvocato, unico responsabile nei confronti del cliente.

Tali principi evidenziano la centralità del ruolo dell’avvocato, il quale non può essere ridotto a mero esecutore delle determinazioni prodotte dallo strumento tecnologico.

L’intento dichiarato dal legislatore è quello di assicurare il rapporto fiduciario tra professionista e cliente; tuttavia, una parte dell’avvocatura, rappresentata anche da Movimento Forense, ha ritenuto tale previsione ridondante, osservando come la fiducia tra avvocato e assistito sia già garantita dai principi deontologici vigenti.

Se è vero che l’obbligo di informativa è già operativo, è altrettanto vero che i percorsi strutturati di alfabetizzazione e formazione all’uso dell’intelligenza artificiale (AI literacy) entreranno in vigore solo a partire dall’ottobre 2026. Ne deriva una situazione di evidente asimmetria normativa: l’obbligo è immediato, mentre la formazione è differita, in un contesto in cui una parte significativa dei professionisti risulta ancora priva di una conoscenza effettiva dei principi di funzionamento dell’IA e del relativo linguaggio tecnico.

Tale criticità è ulteriormente accentuata dal fatto che l’informativa dovuta al cliente deve essere redatta in modo chiaro, semplice ed esaustivo, presupponendo una reale comprensione dei concetti da trasmettere. Non è, pertanto, sufficiente un generico richiamo all’AI Act: i termini tecnici devono essere spiegati, anche mediante esempi, schemi, grafici o tabelle esplicative.

In ogni caso, l’utilizzo di sistemi di intelligenza artificiale deve garantire il rispetto della riservatezza, in particolare con riferimento al trattamento dei dati personali, soprattutto quando l’output venga elaborato o conservato su piattaforme di terzi.[4]

Il 18 agosto 2025 la Commissione europea ha aggiornato le FAQ relative all’attuazione dell’art. 4 dell’AI Act, ossia del Regolamento europeo sull’intelligenza artificiale, entrato in vigore il 1° agosto 2024 con un processo di applicazione graduale. Tale intervento interpretativo si inserisce nel più ampio quadro degli obblighi di alfabetizzazione in materia di intelligenza artificiale (AI literacy) gravanti sui fornitori e sugli utilizzatori dei sistemi di IA.

Dalla lettura dell’art. 4 del Regolamento non emerge, tuttavia, un criterio univoco per stabilire quando il livello di alfabetizzazione possa ritenersi “sufficiente”. La norma, infatti, demanda l’attuazione delle misure formative a un approccio contestuale e flessibile, che tenga conto delle conoscenze tecniche, dell’esperienza, dell’istruzione e della formazione dei soggetti coinvolti, nonché del contesto specifico di utilizzo dei sistemi di IA e delle persone o dei gruppi di persone sui quali tali sistemi sono destinati a incidere.

Sul punto, la Commissione europea ha chiarito nelle FAQ che l’art. 4 dell’AI Act non introduce un obbligo di misurazione formale delle competenze in materia di intelligenza artificiale del personale. Tuttavia, esso impone ai fornitori e agli operatori di sistemi di IA di garantire un livello adeguato di alfabetizzazione, calibrato sulle conoscenze tecniche, sull’esperienza professionale, sull’istruzione e sulla formazione dei soggetti che operano con tali sistemi.

La nozione di AI literacy è ulteriormente precisata dall’art. 3, punto 56, dell’AI Act, che la definisce come l’insieme di competenze, conoscenze e capacità di comprensione che consentono ai fornitori, ai deployer e ai soggetti interessati di procedere a una diffusione informata dei sistemi di intelligenza artificiale, acquisendo al contempo consapevolezza delle opportunità, dei rischi e dei potenziali danni che tali tecnologie possono generare.

Il mancato rispetto degli obblighi formativi non comporta, allo stato, sanzioni specifiche e automatiche, ma può comunque esporre imprese e professionisti a forme di responsabilità professionale, soprattutto ove l’uso dell’IA si traduca in violazioni dei doveri di diligenza, competenza e controllo.

3. Rischio sistemico e supervisione umana

In tale contesto si collocano le prime e significative pronunce giurisprudenziali italiane in materia di utilizzo distorto dell’intelligenza artificiale generativa nell’attività forense. In particolare, due tribunali su tre hanno riconosciuto la sussistenza della responsabilità aggravata ex art. 96 c.p.c. in relazione alle allucinazioni informatiche.

Il Tribunale di Torino[5] ha condannato la parte attrice per aver proposto un ricorso manifestamente infondato, generico e redatto con il supporto dell’intelligenza artificiale senza alcuna verifica critica dei risultati, ravvisando una condotta connotata da mala fede o, quantomeno, da colpa grave. In senso conforme si è espresso il Tribunale di Latina[6], il quale ha stigmatizzato non solo il singolo ricorso oggetto di giudizio, ma anche la prassi di centinaia di procedimenti patrocinati dal medesimo difensore, tutti redatti in modo seriale, caratterizzati da scarsa qualità argomentativa e da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti rispetto al thema decidendum. A ciò si è aggiunta la reiterata mancata comparizione in udienza del difensore, nonostante i ripetuti inviti del giudice a fornire chiarimenti.

Di diverso avviso è stato, invece, il Tribunale di Firenze[7], che ha escluso la condanna per lite temeraria pur in presenza dell’inserimento di sentenze inesistenti nella memoria difensiva. La decisione è stata motivata dalla mancanza di mala fede o colpa grave e dall’assenza di prova del danno, ritenendo che si trattasse di un falso innocuo, sebbene non privo di disvalore sotto il profilo dell’omessa verifica dell’effettiva esistenza delle pronunce richiamate.

Resta fermo, sul piano deontologico, che l’esercizio della professione forense deve essere costantemente informato al dovere di probità e lealtà imposto alle parti e ai loro difensori dall’art. 88 c.p.c., il quale impone al giudice di segnalare le trasgressioni alle autorità competenti all’esercizio del potere disciplinare. Inoltre, nella prospettiva del corretto funzionamento del sistema giudiziario nel suo complesso, l’utilizzo di fonti giurisprudenziali inesistenti non può essere considerato del tutto innocuo, in ragione del dispendio di tempo ed energie che esso determina a carico del cosiddetto sistema giustizia.

Alla luce delle pronunce di condanna emerse in ambito nazionale, una parte della dottrina[8] ha descritto l’intelligenza artificiale come una “tecnologia neutra”, nel senso che essa può condurre tanto a risultati di elevata qualità quanto a esiti negativi, in funzione dell’uso che ne viene fatto. In tale prospettiva, diviene essenziale individuare lo strumento appropriato per lo scopo perseguito e impiegarlo in modo corretto e consapevole.

Questa impostazione rinvia alla necessità di uno studio approfondito degli strumenti di IA, del loro funzionamento, delle potenzialità applicative e dei rischi connessi, al fine di consentire ai professionisti di acquisire competenze tecniche, tecnologiche e informatiche da affiancare a quelle giuridiche tradizionali. Il tema dell’utilizzo dell’intelligenza artificiale nell’attività forense si collega, infatti, in modo diretto al dovere di competenza previsto dall’ordinamento professionale e dal Codice Deontologico Forense (CDF), il quale stabilisce che “avvocato non accetta incarichi che non sia in grado di svolgere con adeguata competenza e diligenza e si astiene dall’assumere iniziative che non sia in grado di sostenere efficacemente”.

Tale dovere si inserisce nel quadro dei principi di libertà, indipendenza, autonomia e competenza tecnica e professionale che governano l’esercizio della professione forense. In questa prospettiva, deve ribadirsi che l’avvocato è personalmente responsabile dell’utilizzo degli strumenti di intelligenza artificiale impiegati nell’attività professionale – quali, ad esempio, la legal research, l’analisi degli atti o la redazione automatizzata – sicché ogni forma di delega allo strumento tecnologico non può essere né cieca né priva di controllo, come chiarito anche dal Consiglio Nazionale Forense.

Il dovere di aggiornamento professionale comprende oggi necessariamente anche la formazione continua sugli strumenti e sui metodi idonei a garantire la corretta esecuzione del mandato difensivo, includendo l’uso responsabile delle tecnologie emergenti. Ciò al fine di assicurare che l’intelligenza artificiale venga utilizzata con piena consapevolezza delle sue funzioni, dei suoi limiti strutturale e delle implicazioni etiche e deontologiche che ne derivano, evitando affidamenti acritici o scorciatoie operative idonee a compromettere la qualità della prestazione professionale.

In ogni caso, non è in alcun modo possibile delegare all’IA la responsabilità di valutazioni giuridiche, scelte processuali o atti difensivi sostanziali, poiché la decisione ultima in ordine alle strategie e agli atti processuali resta esclusivamente personale del professionista. Anche laddove si avvalga di strumenti di intelligenza artificiale, l’avvocato è tenuto a verificare integralmente le informazioni e i suggerimenti prodotti e, apponendo la propria firma all’atto, ne assume la piena paternità e responsabilità.

Diversa, peraltro, è la valutazione della responsabilità e delle conseguenti sanzioni applicate agli avvocati in altri ordinamenti. Negli Stati Uniti, ad esempio, alcuni professionisti sono stati condannati al pagamento di una sanzione pecuniaria pari a 5.000 dollari, nonché all’invio di una comunicazione formale ai giudici indicati come autori di decisioni in realtà inesistenti, falsamente richiamate a sostegno delle proprie tesi difensive.

A livello comparato, gli Ordini professionali si sono attivati per elaborare policy e linee guida sull’utilizzo dell’intelligenza artificiale negli studi legali, senza che in alcun ordinamento l’avvocato venga esonerato da responsabilità. Così, ad esempio, nello Stato della California, la Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law prevede espressamente l’obbligo di revisione di qualsiasi output generato dall’IA prima della sua utilizzazione in giudizio.

In ambito europeo, nel giugno 2023 la Commissione Nuove Tecnologie della Fédération des Barreaux d’Europe (FBE) ha adottato le Linee guida rivolte agli avvocati per sfruttare al meglio le opportunità offerte dai modelli linguistici di grandi dimensioni e dall’intelligenza artificiale generativa, sottolineando in modo esplicito che la responsabilità per gli esiti dell’utilizzo di tali strumenti resta in capo all’avvocato. Analoga impostazione si rinviene nella Carta dei principi per un uso consapevole degli strumenti di intelligenza artificiale in ambito forense, approvata dall’Ordine degli Avvocati di Milano nel dicembre 2024.

Secondo l’indagine condotta dalla International Bar Association nel settembre 2024 (The Future Is Now: Artificial Intelligence and the Legal Profession), gli stessi avvocati concordano sull’importanza della diligenza nel garantire il rispetto delle regole deontologiche anche quando si ricorra all’uso dell’intelligenza artificiale. Tale conclusione appare, del resto, coerente con un principio già noto all’ordinamento professionale, posto che l’avvocato rispondeva anche in passato dell’attività svolta da praticanti e collaboratori.

Ci si è quindi interrogati sul motivo per cui tale regime di responsabilità dovrebbe mutare al solo variare della natura del “collaboratore”. In tal senso, Damien Charlotin[9] ha parlato di una vera e propria “crisi sistemica”, caratterizzata da un’estensione, una velocità di crescita, una diffusione geografica e un impatto professionale particolarmente allarmanti. Lo stesso autore ha dato vita a un database internazionale che raccoglie oltre 150 casi documentati di utilizzo distorto dell’intelligenza artificiale nel contesto giudiziario.

Sono dodici i Paesi nei quali Charlotin ha documentato il fenomeno delle allucinazioni giuridiche, con una predominanza schiacciante degli Stati Uniti, che concentrano circa l’80–85% dei casi esaminati. Seguono, a distanza, il Regno Unito, il Canada, l’Australia, il Brasile e alcuni Paesi europei, tra cui l’Italia, nella quale sono emersi i primi segnali del fenomeno anche all’interno di sistemi di civil law.

L’analisi prende avvio dal 2023, anno in cui i casi documentati erano soltanto dieci, per giungere a settantatré casi nei primi cinque mesi del 2025, con un incremento di oltre venti casi nel solo mese di maggio 2025. Secondo Charlotin, ci si troverebbe dinanzi a una “curva almeno quadratica”, indicativa di un’escalation rapida e non ancora stabilizzata del fenomeno.

Un ulteriore elemento di particolare rilievo concerne il mutamento della tipologia dei soggetti coinvolti. Se nel 2023 circa il 70% dei casi vedeva come protagonisti soggetti che agivano pro se, nel 2025 la maggioranza degli episodi è imputabile a professionisti legali, a dimostrazione del fatto che anche operatori esperti possono fare un uso inconsapevole o scorretto degli strumenti di intelligenza artificiale.

Tra i casi più significativi emersi nella giurisprudenza si segnalano:
Mata v. Avianca (S.D.N.Y., 2023), nel quale un avvocato ha citato sei precedenti giurisprudenziali inesistenti generati da ChatGPT, con conseguente irrogazione di una sanzione di 5.000 dollari e l’obbligo di presentare scuse ufficiali;
Morgan & Morgan v. Walmart (D. Wyo., 2025), ove lo studio legale ha richiamato otto casi fittizi, subendo sanzioni economiche e disciplinari;
Ellis George LLP & K&L Gates (C.D. Cal., 2025), in cui il team difensivo ha inserito nove citazioni errate in un unico atto, ricevendo una sanzione pari a 31.100 dollari.

Negli Stati Uniti, la responsabilità può estendersi all’intero studio legale per gli errori commessi dai collaboratori, e le sanzioni economiche risultano in costante aumento, passando da importi compresi tra 1.000 e 5.000 dollari a misure superiori ai 10.000 dollari. Nel Regno Unito, un avvocato ha inserito diciotto casi fittizi in una controversia dal valore di 90 milioni di sterline, inducendo i giudici ad ammonire che condotte di tale natura possono integrare gli estremi della perversion of justice, reato punibile sino all’ergastolo.

Episodi analoghi sono stati registrati anche in Canada e Australia, mentre in Italia i casi emersi restano, allo stato, quelli sopra richiamati.

Per prevenire il rischio di allucinazioni giuridiche, Charlotin e altre fonti autorevoli suggeriscono l’adozione di protocolli rigorosi di controllo, fondati su una verifica multilivello, sul controllo delle citazioni mediante fonti primarie ufficiali (quali Lexis, Westlaw e la giurisprudenza pubblica), nonché sulla revisione tra pari dei contenuti generati dall’IA, accompagnata dalla documentazione del processo di verifica.

È inoltre raccomandata la verifica manuale della prima pagina di ciascun precedente citato, nonché l’utilizzo di strumenti tecnologici avanzati, pur riconoscendone la fallibilità, quali CoCounsel (Thomson Reuters) e Lexis+ AI, basati su database giuridici chiusi ma caratterizzati da tassi di errore residui compresi tra il 17% e il 33%. A tali strumenti devono affiancarsi sistemi di validazione delle citazioni, quali KeyCite, Shepard’s, Brief Analyzer e BCite.

Un ruolo centrale è altresì attribuito alla formazione professionale continua. Non a caso, anche i programmi universitari di istituzioni quali Harvard, Yale e Berkeley, così come quelli di formazione professionale (ad esempio il National Judicial College), includono ormai moduli dedicati ai limiti tecnici dell’intelligenza artificiale, alla verifica delle fonti, alla gestione del rischio e alle implicazioni etiche e di responsabilità legale.

Il fenomeno delle allucinazioni giuridiche non ha riguardato esclusivamente l’avvocatura. È emerso, infatti, anche un caso in cui un magistrato di primo grado ha fondato una decisione su pronunce inesistenti, circostanza resa nota nel corso dell’ultimo Forum Legale. A seguito dell’impugnazione della sentenza in secondo grado e poi in Cassazione, e dopo le opportune verifiche, è stata avviata un’azione disciplinare nei confronti del magistrato da parte del Procuratore Generale, per grave e inescusabile negligenza.

In tale contesto si inserisce l’attività del Consiglio Superiore della Magistratura, dal quale sono attese a breve le Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia. Il CSM distingue due ambiti di utilizzo dell’IA: da un lato, quello qualificato come ad alto rischio ai sensi dell’AI Act[10]; dall’altro, quello riconducibile alle attività giudiziarie in senso lato e alle attività organizzative o accessorie[11], ritenute compatibili con l’ordinamento vigente nel rispetto di specifiche condizioni e secondo una strategia di medio-lungo periodo.

In attesa dell’adozione di sistemi di intelligenza artificiale conformi ai requisiti normativi, il CSM ha stabilito che è esclusa la possibilità di utilizzo dell’IA nell’attività giudiziaria in senso stretto, in quanto i sistemi attualmente disponibili online non garantiscono, in assenza di certificazione, i requisiti previsti per i sistemi ad alto rischio e non possono, pertanto, essere impiegati nell’esercizio diretto della funzione giurisdizionale.

Attualmente, l’utilizzo di Copilot risulta incluso nel pacchetto Office in uso presso il dominio giustizia e, pertanto, è tecnicamente disponibile anche per i magistrati. Tuttavia, l’impiego effettivo di tale strumento è subordinato a una specifica autorizzazione del Ministero della Giustizia ed è consentito esclusivamente nell’ambito di progetti di sperimentazione sottoposti a supervisione ministeriale, con finalità meramente conoscitive e non decisionali.

Le sperimentazioni attualmente attive interessano i Tribunali di Bologna, Catania, Milano e Napoli. In tale contesto, sebbene la ricerca giurisprudenziale su banche dati possa, in astratto, rientrare tra le attività ammissibili, essa risulta in concreto esclusa in ragione dell’impatto che l’output generato potrebbe esercitare sul convincimento del giudicante. In particolare, il rischio è quello di orientare l’attività interpretativa suggerendo determinati indirizzi giurisprudenziali piuttosto che altri, incidendo così sulla funzione valutativa e sull’autonomia del giudizio, che richiede una vigilanza particolarmente stringente.

Il progetto attualmente in fase di elaborazione da parte del Ministero della Giustizia e del Consiglio Superiore della Magistratura mira allo sviluppo di un sistema di intelligenza artificiale interno all’amministrazione della giustizia, destinato a essere reso disponibile, a partire da agosto 2026, a tutti i magistrati ordinari. Tale obiettivo si inserisce in un piano strategico di medio periodo, fondato sulla selezione e sull’acquisizione privilegiata di sistemi di IA conformi[12] ai requisiti previsti dal Regolamento (UE) 2024/1689 (AI Act).

Il medesimo piano prevede, altresì, l’istituzione di una sandbox regolamentare per la sperimentazione controllata di sistemi di intelligenza artificiale destinati all’uso giudiziario o organizzativo, accompagnata da report periodici e da un costante dialogo istituzionale con l’avvocatura, al fine di valutare in modo continuo le ricadute dell’impiego di tali tecnologie sull’attività processuale.

L’emersione del fenomeno delle allucinazioni giuridiche generate dall’uso distorto di sistemi di intelligenza artificiale si presta a essere letta anche alla luce delle categorie proprie del diritto penale simbolico e della criminologia del rischio, che consentono di coglierne la portata sistemica oltre la dimensione meramente individuale o disciplinare.

In particolare, il ricorso a sanzioni processuali e disciplinari nei confronti di avvocati e magistrati che abbiano fatto uso acritico dell’IA, pur rispondendo a un’esigenza immediata di tutela dell’affidabilità del sistema giudiziario, presenta tratti riconducibili a una funzione prevalentemente simbolica della risposta punitiva. Come noto, il diritto penale simbolico si caratterizza per l’adozione di misure sanzionatorie volte non tanto a incidere in modo strutturale sulle cause del fenomeno, quanto a riaffermare valori fondamentali dell’ordinamento e a ristabilire una percezione di controllo sociale, soprattutto in contesti segnati da innovazioni tecnologiche percepite come destabilizzanti.

Sotto tale profilo, la sanzione per l’uso distorto dell’IA rischia di assolvere a una funzione prevalentemente comunicativa, indirizzata a rassicurare l’opinione pubblica circa la permanenza del presidio umano sul processo decisionale, senza tuttavia affrontare in modo sistematico le condizioni organizzative, formative e tecnologiche che favoriscono il verificarsi degli errori. Il rischio è quello di una risposta ex post, fortemente visibile ma strutturalmente insufficiente, che finisce per personalizzare una responsabilità che, in realtà, presenta caratteri diffusi e sistemici.

Tale lettura trova ulteriore conferma nell’approccio della criminologia del rischio, come elaborato, tra gli altri, da David Garland[13]. Secondo tale prospettiva, le società contemporanee tendono a spostare il baricentro della risposta giuridica dalla repressione dell’illecito alla gestione preventiva del rischio, attraverso dispositivi normativi e organizzativi finalizzati a ridurre l’esposizione a eventi considerati socialmente pericolosi. In tal senso, l’intelligenza artificiale viene costruita come fattore di rischio sistemico, capace di incidere sulla prevedibilità, sull’affidabilità e sulla legittimazione del sistema giustizia.

L’attenzione istituzionale alle allucinazioni giuridiche, più che al danno concreto prodotto nei singoli procedimenti, appare allora funzionale a una logica di risk management, nella quale l’obiettivo primario è prevenire la perdita di fiducia nel sistema giudiziario e contenere l’erosione dell’autorità simbolica della decisione giurisdizionale. Ne deriva una crescente enfasi sugli obblighi di supervisione umana, sulla tracciabilità delle decisioni e sulla responsabilità personale del professionista, intesi come strumenti di neutralizzazione del rischio piuttosto che come meri precetti deontologici.

In tale cornice, l’uso distorto dell’intelligenza artificiale non rappresenta soltanto una deviazione individuale, ma un indicatore di una più ampia trasformazione dei modelli di controllo, nei quali l’errore tecnologico viene assimilato a una minaccia sistemica da governare mediante regole di cautela rafforzate e meccanismi di responsabilizzazione anticipata. Ciò spiega perché l’ordinamento tenda a ribadire con forza il principio della responsabilità non delegabile, riaffermando la centralità del soggetto umano come ultimo garante della decisione giuridica.

Questa prospettiva consente, infine, di superare una lettura meramente moralistica delle condotte sanzionate, restituendo il fenomeno delle allucinazioni giuridiche alla sua dimensione strutturale. L’errore non è soltanto il frutto di negligenza individuale, ma l’esito di un contesto in cui l’innovazione tecnologica procede più rapidamente dei presidi formativi e organizzativi, generando un disallineamento tra strumenti disponibili e capacità effettive di controllo. In tale senso, il rischio sistemico non risiede nell’intelligenza artificiale in quanto tale, bensì nella sua integrazione non governata all’interno dei processi decisionali giuridici.

4. Conclusioni

Il quadro normativo, giurisprudenziale e deontologico analizzato dimostra come l’impiego dell’intelligenza artificiale nell’attività forense e giudiziaria non possa essere ricondotto a una dimensione meramente tecnica o strumentale, ma debba essere valutato alla luce dei principi di responsabilità, competenza e vigilanza che presidiano il corretto funzionamento del sistema giustizia. L’uso distorto dell’IA, come attestato dalle prime pronunce giurisprudenziali nazionali e dalle esperienze comparate, evidenzia il rischio di una compromissione della qualità della prestazione professionale e dell’affidabilità del processo decisionale, quando venga meno un effettivo controllo umano.

In tale prospettiva, l’intelligenza artificiale non si configura come un soggetto autonomo di decisione, né come un collaboratore neutro, ma come uno strumento che richiede una supervisione umana costante e qualificata. La responsabilità delle scelte giuridiche, delle valutazioni interpretative e degli atti processuali resta integralmente in capo al professionista, sia esso avvocato o magistrato, il quale non può delegare all’algoritmo funzioni che incidono sul convincimento del giudicante o sulla strategia difensiva.

Le criticità emerse in relazione alle allucinazioni giuridiche confermano che il rischio non risiede nella tecnologia in sé, ma nell’assenza di adeguati presidi di competenza, formazione e verifica. In questo senso, l’obbligo di informativa, l’alfabetizzazione in materia di intelligenza artificiale e l’adozione di protocolli di controllo non rappresentano meri adempimenti formali, bensì strumenti essenziali per garantire un utilizzo compatibile dell’IA con i valori fondamentali dell’ordinamento e con le esigenze di tutela del rapporto fiduciario tra professionista e assistito.

L’approccio istituzionale delineato dal Consiglio Superiore della Magistratura, fondato sulla distinzione tra ambiti di utilizzo ad alto rischio e attività organizzative o accessorie, si colloca coerentemente in questa linea di prudenza, riaffermando la necessità di una vigilanza stringente e di un impiego progressivo e controllato delle tecnologie di intelligenza artificiale. In attesa di sistemi certificati e conformi ai requisiti previsti dal diritto europeo, l’esclusione dell’IA dall’attività giudiziaria in senso stretto appare funzionale alla salvaguardia dell’autonomia del giudizio e della responsabilità personale del magistrato.

In conclusione, l’intelligenza artificiale può costituire un valido supporto all’attività giuridica solo se inserita in un modello di responsabilità non delegabile, nel quale la competenza professionale e la supervisione umana restano centrali. Diversamente, il rischio è quello di un uso distorto della tecnologia, idoneo a incidere negativamente non solo sul singolo procedimento, ma sull’equilibrio complessivo del sistema giustizia.


[1] Il termine “professionisti” è inteso nel senso di datori di lavoro, notai, avvocati, commercialisti e altri professionisti intellettuali, come ad esempio i giornalisti.

[2] Si parla di sistemi di intelligenza artificiale in generale, senza distinguere tra modelli generalisti (ChatGPT) e strumenti specialisti o software predittivi di decisioni giurisprudenziali.

[3] Essi sono: il principio di trasparenza, ossia informare il cliente quando viene usata l’AI, il principio di proporzionalità vale a dire limitare l’uso dell’AI alla sole funzioni di supporto; il principio di sicurezza e protezione dei dati, specificare in che modo viene garantita la protezione dei dati sensibili; il principio di accuratezza che richiede il controllo in ogni fase di utilizzo dell’AI da parte del professionista che così non si affida totalmente e a scatola chiusa allo strumento informatico, infine, il principio di autonomia secondo il quale la decisione è lasciata sempre all’avvocato, unico responsabile verso il cliente. Questi mettono in evidenza la centralità del ruolo dell’avvocato che non è un mero esecutore di decisioni del lo strumento utilizzato.

[4] L’uso di strumenti di IA, soprattutto basati sul cloud o su sistemi esterni non controllati dall’avvocato, può comportare rischi per la segretezza e riservatezza dei dati (artt. 13 e 28, CDF; artt. 2 e 4 L. n. 247/2012).

[5] Tribunale di Torino, Sezione Lavoro, sentenza n. 2120 del 16 settembre 2025: “Ai sensi dell’art. 96, comma 3, c.p.c., si ritiene altresì necessario condannare parte attrice al pagamento della somma di euro 500 in favore di ciascuna delle parti convenute. La ricorrente ha infatti agito in giudizio con malafede o, quantomeno con colpa grave, dal momento che ha proposto opposizione nei confronti di avvisi di addebito che le erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.

[6] Tribunale di Latina, sentenza del 23 settembre 2025: “Il ricorso giudiziario – così come tutti gli altri centinaia di giudizi patrocinati dal medesimo difensore, tutti redatti a stampone – risulta evidentemente redatto con strumenti di intelligenza artificiale; tanto è evidente non solo dalla gestione del procedimento (deposito di note ex art. 127 ter c.p.c. il giorno successivo al deposito del decreto di fissazione di udienza) ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argo menti utilizzati; l’atto è infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed, in ogni caso, tutte manifestamente infondate. Il difensore inoltre, più volte invitato a presentarsi in udienza al fine di rendere chiari menti, ha ritenuto di non presenziare”.

[7] Tribunale di Firenze, Sezione Impresa, ordinanza n. 229 del marzo 2025: “Ora, fermo restando il disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA, sin dal primo grado ha fondato la sua propria strategia difensiva sull’assenza di malafede nell’aver commercia lizzato le magliette raffigurante le vignette di elemento che poi si era già trovato nel decreto emesso inaudita altera parte e che ha trovato riscontro anche nella successiva ordinanza cautelare. L’indicazione di estremi di legittimità nel giudizio di reclamo ad ulteriore conferma della linea difensiva già esposta dalla si può quindi considerare diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la non applicabilità delle disposizioni di cui all’art. 96 c.p.c.”.

[8] L’avvocato Massimiliano Pappalardo, partner Ughi e Nunziante, tra i fondatori di AIRIA, l’Associazione italiana per la regolazione dell’intelligenza artificiale.

[9] Damien Charlotin è Senior Research Fellow presso HEC Paris, dove svolge attività di ricerca sui rapporti tra intelligenza artificiale, diritto e processo decisionale giudiziario. È autore e curatore del database internazionale dedicato ai casi di AI hallucinations in ambito giudiziario, che raccoglie e analizza decisioni e procedimenti nei quali l’uso distorto di strumenti di intelligenza artificiale ha condotto alla citazione di precedenti inesistenti o a errori rilevanti sotto il profilo processuale e disciplinare. Il database, costantemente aggiornato, costituisce uno dei principali punti di riferimento a livello comparato per lo studio delle ricadute dell’IA sull’attività forense e giudiziaria ed è frequentemente richiamato nel dibattito dottrinale e istituzionale internazionale.

[10] L’AI Act considera ad alto rischio i sistemi di AI utilizzati dall’autorità giudiziaria per la ricerca, la interpretazione dei fatti e di diritto, l’applicazione di una legge e quelli utilizzati nel contrasto alla commissione di reati, alla valutazione di affidabilità di elementi probatori in indagini e alla determinazione del rischio di recidiva

[11] L’AI Act afferma che questi sistemi non pongono “un rischio significativo di danno” perché non influenzano il processo decisionale, sono esonerati dalla più rigida disciplina. IL CSM ha individuato 12 attività che non sono ad alto rischio e quindi ammesse da subito sempre dietro autorizzazione del Ministero che deve fornire i tools per garantire la riservatezza: – Ricerche dottrinali: assistenza nella consultazione di banche dati e costruzione di stringhe di ricerca. – Sintesi e classificazione: creazione di abstract di sentenze o saggi per archiviazione tematica. – Gestione organizzativa: redazione di report statistici, analisi dei carichi, comparazione automatica di documenti, stesura di bozze di relazioni o pareri amministrativi. – Supporto agli “affari semplici”: bozze standardizzate in cause a bassa complessità, da adattare dal magistrato. – Controllo documentale: verifica di atti contabili o certificazioni anonimizzate. Comparazione di prassi e fascicoli: individuazione di criticità o buone pratiche. – Elaborazioni grafiche: generazione automatica di tabelle, grafici o slide per fini organizzativi o formativi. – Revisione linguistica e traduzioni: correzione di testi o traduzioni assistite, sempre soggette a verifica umana. – Gestione dei calendari: generazione automatica di agende e udienze secondo criteri predefiniti. – Catalogazione: archiviazione per materia dei quesiti ai CTU o di altri atti tecnici.

[12] Gli unici sistemi che potranno essere utilizzati dai magistrati nell’esercizio dell’attività giudiziaria (ricerca e interpretazione dei fatti e del diritto e applicazione della legge) saranno quelli a marcatura CE, ottenuta solo a seguito di una valutazione di conformità e la conseguente iscrizione nella banca dati dell’Unione Europea.

[13] GARLAND David, The Culture of Control. Crime and Social Order in Contemporary Society, University of Chicago Press, Chicago, 2001.

*** This work is peer-reviewed ***
Copyright © Author(s)
Licensed under Creative Commons Attribution-NonCommercial 4.0 International

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *