ABSTRACT (EN): The rapid evolution of advanced Artificial Intelligence systems raises profound questions regarding the legal nature of their agency and the potential attribution of juridical subjectivity. Moving beyond anthropomorphic assumptions, the article examines the European debate on “electronic personality” and revisits the classical dogmatic categories of subjectivity, legal capacity and personality in light of machine autonomy. Through a systematic analysis of comparative models, emerging liability frameworks, algorithmic risk and the governance of AI systems, the paper argues for a functional, non-anthropocentric approach capable of calibrating limited forms of legal subjectivity for advanced AI. Such an approach aims to ensure fair allocation of responsibility while preserving the primacy of human dignity and fundamental rights. The closing reflection addresses the theoretical limits of “emotional machines” and reaffirms the centrality of human oversight in the future coexistence between humans and intelligent artefacts.
ABSTRACT (IT): La crescente autonomia dei sistemi più evoluti di Intelligenza Artificiale solleva temi centrali in ordine alla loro possibile qualificazione giuridica e alla configurabilità di una soggettività non umana. Il contributo esamina criticamente la nozione europea di “personalità elettronica” e rilegge, in chiave funzionale, le categorie classiche di soggettività, capacità giuridica e personalità, alla luce del comportamento algoritmico avanzato. Attraverso una ricostruzione comparata dei modelli regolatori, un’analisi dei nuovi paradigmi di responsabilità, del rischio algoritmico e della governance dei sistemi di IA, l’articolo sostiene la praticabilità di forme attenuate e calibrate di soggettività giuridica, orientate all’equa imputazione delle conseguenze dannose e alla tutela dei terzi. La riflessione finale affronta il limite teorico della “macchina emotiva” e ribadisce la necessità di preservare la preminenza dell’essere umano nella futura convivenza tra uomo e intelligenze artificiali.
Sommario: 1. Premessa – 2. Risoluzione europea del 2017 e “personalità elettronica” – 3. Cenni di fenomenologia della soggettività e dei suoi derivati giuridici – 4. Diritti della “macchina pensante”? Possibile la “macchina emotiva”? – 5. Conclusione.
1. Premessa
Nel 1932, un visionario Aldous Huxley scrive “Il mondo nuovo“, affascinante romanzo di fantascienza di genere distopico, ambientato nel 2540, narrante di una società disumanizzata e ipertecnologicamente avanzata. L’uomo sembra diventato un robot, nella sua spiccata fredda automazione. Il robot somiglia sempre più ad un uomo, nella sua componente cognitiva e decisionale.
Facendo un balzo indietro, ai nostri giorni, l’Intelligenza Artificiale (IA) ha la sua dimensione autonoma immateriale (mente) che non sempre, necessariamente, si incontra con il piano tangibile della robotica (corpo).
Del resto, per secoli, corpo e mente umana sono stati studiati in maniera distinta e parallela.
Gli stessi sistemi di imitazione del corpo e della mente sono stati implementati separatamente. Ciò ha condotto alla creazione di macchine di rara potenza e precisione (apparecchiature industriali, militari o sanitarie, robot), da una parte, e a calcolatori elettronici dalle notevoli capacità computazionali (elaboratori, dispositivi smart), dall’altra.
Nel tempo, si è giunti all’integrazione tra meccatronica, con prodotti di biomeccanica simile a quella del corpo umano, e sistemi di calcolo comparabili – e talvolta superiori – ad alcune delle funzioni cerebrali umane.
L’espressione “intelligenza artificiale” è stato probabilmente foggiata, nel 1956, dall’informatico americano John McCarthy[1], in un clima di grande fervore e entusiasmo. L’evoluzione tecnologica che ne è seguita è stata di tipo esponenziale.
Si assiste oggi ad un progresso tale da porsi non più solo la domanda se le macchine siano intelligenti ma anche se possano essere morali. Si tende sempre più a parlare di roboetica.[2]
La perenne tendenza all’antropomorfizzazione dei sistemi di IA, soprattutto da parte del profano, nasce dalla constatazione, più o meno immediata, di una capacità di ragionamento e di creatività simili a quella umana.
I considerevoli risultati conseguiti dalla tecnologia generativa spostano inevitabilmente il centro del dibattito, giuridico e non, dalla dimensione eminentemente artificiale a quella umana. L’utilizzo stesso del termine intelligenza – tipica capacità multifattoriale umana – è la prova indiretta di un’inconfutabile tendenza all’antropocentrismo.
E, in un contesto caratterizzato da apologia ed esaltazione da un lato, diffidenza e timore dall’altro, l’idea stessa, antropocentrica, di una “macchina pensante” sembra costituire l’anticamera per il riconoscimento di una nuova forma di personalità giuridica.
Si impone, in tutta la sua valenza sillogistica, il ragionamento secondo cui, se le macchine possono imparare e decidere, allora possono (e debbono) essere anche giuridicamente responsabili per le attività che compiono.
Tale rilievo conduce, ineludibilmente, a considerare non più sufficiente l’inquadramento nella mera dimensione fenomenologica e ontologica dell’Intelligenza Artificiale. Si appalesa più che mai necessario una riflessione sullo status giuridico della medesima.
2. Risoluzione europea del 2017 e “personalità elettronica“
Da più parti, si discute di “personalità elettronica”, sia perché la nostra cultura giuridica correla, pressoché in automatico, il concetto di persona (fisica o giuridica) al soggetto (fisico o non, individuale o collettivo) che abbia capacità giuridica e d’agire, ossia l’attitudine a produrre modificazioni nella sfera giuridica propria e altrui, sia per assicurare un’adeguata cifra di certezza e di tutela ai soggetti eventualmente lesi dall’attività autonoma della “macchina pensante”.
Invero, la seconda motivazione costituisce piuttosto una concreta specificazione della prima, quella che attiene al versante dell’attitudine ad incidere sulla sfera giuridica altrui, con particolare protezione dell’eventuale interlocutore umano che, a qualsivoglia titolo, di fatto o di diritto, entri in contatto con essa.
Riconoscere tale personalità e le connesse responsabilità sembra possa condurre ad esonerare il danneggiato dal peso di una dispendiosa e spesso dispersiva ricerca del possibile autore della componente tecnica specifica che è stata causa, più o meno diretta, della scelta errata e dunque del danno.
Ciò consentirebbe di superare tutta una pletora di questioni complicate in ordine ai criteri eziologici di riconducibilità del danno al funzionamento della singola componente, tenendo conto che praticamente tutte le decisioni “artificiali” sono frutto di interazioni e sinergie di più componenti, le cui effettive quote di incidenza non risultano distinguibili.
D’altro canto, così argomentando, si potrebbe andare oltre l’approccio, ormai antiquato e poco efficace, della responsabilità del produttore per prodotto difettoso[3], atteso il livello superiore della tecnologia “pensante”, capace di prendere decisioni in autonomia, a prescindere da una valutazione di difettosità ancorata a rigidi schemi meccanici anziché ai dinamici flussi elettronici.
L’idea della “personalità elettronica” è stata introdotta da una risoluzione del Parlamento europeo alla Commissione[4] adducendo giustappunto la necessità di “garantire una più equa distribuzione del rischio” con l’avanzare della tecnologia di Intelligenza Artificiale, in alvei particolarmente sensibili alla responsabilità per danni extracontrattuali.[5]
Numerose critiche sono state mosse dagli esperti a tale risoluzione.
In particolare, centocinquantasei esperti, a vario titolo, in Intelligenza Artificiale, hanno presentato una “lettera aperta” evidenziando, in buona sostanza, due macro contestazioni.
In primis, i caratteri tipici dell’IA, della robotica e dei sistemi tecnologici correlati, pur essendo teoricamente assimilabili al comportamento razionale umano, non presentano alcuna altra caratteristica essenziale e peculiare dell’essere umano, quali l’autocoscienza o un senso dell’identità personale, il libero arbitrio, la componente emotiva.
In secondo luogo, il fondamento giuridico dell’asserita “personalità elettronica” non troverebbe ispirazione né nella persona fisica per le suindicate ragioni, né tantomeno nella persona giuridica che, in ultima analisi, si compone comunque di persone fisiche che la rappresentano e l’amministrano, e dunque decidono se e come tenerla in vita.
Tali contestazioni si appalesano – ma solo prima facie – fondate.
Certamente il deciso segnale, in sede europea, di un trend alla regolamentazione dei robot – al punto da pensare di poter considerarli autonomi centri di imputazione giuridica – deve tenere nella debita considerazione le innegabili differenze ontologiche tra macchine intelligenti e attuali soggetti di diritto (persone fisiche, persone giuridiche ed altri enti, animali), nonché l’evidente gradualità di autonomia riscontrabile tra le diverse tipologie intelligenze artificiali.
Eppure, può ritenersi che il fondamento di un’ipotetica persona elettronica non dovrebbe cercarsi né nella persona fisica, né nella persona giuridica, ma fondare eventualmente un tertium genus le cui caratteristiche rispondano a un’utilità pratica che ne giustifichi l’esistenza.
Qualora questa utilità fosse riscontrata – e pure la semplice risoluzione del problema della prova del nesso di causalità ai fini del risarcimento del danno pare una valida ragione -, non dovrebbe, di principio, escludersi l’attribuzione di personalità, senza con ciò voler riconoscere un carattere di umanità ai robot.
Del resto, a ben guardare in prospettiva storica, la stessa introduzione della persona giuridica ha incontrato non pochi ostacoli.
Sconosciuta al diritto romano[6], l’idea che un’entità giuridica potesse avere un autonomo patrimonio ed essere centro di imputazione di posizioni giuridiche distinto dai membri che lo compongono è affiorata e fiorita solo nel Medioevo, figlia di una vibrante disputa dottrinale sulla plausibilità di un riconoscimento di diritti in capo ad un ente che, a tutti gli effetti, fosse una persona ficta.
Alla fine, le resistenze di matrice concettuale sono state sconfitte dalle esigenze di natura pratica che la nuova figura giuridica avrebbe consentito di risolvere.
L’istituto giuridico di societas, come ente distinto dalle persone che lo compongono, è oggi acquisito nella cultura giuridica di tutti gli ordinamenti, e mai gli si è voluto accostare, in qualche misura, un predicato di umanità.
Nel Medioevo, il collegium è nato quale centro di imputazione di interessi autonomi[7] – ancorché afferibili indirettamente ai membri – e titolare di un autonomo patrimonio.
Nel tempo, il diritto è giunto a riconoscere alla “persona giuridica” un complesso di diritti prima concepibili solo in relazione alle persone fisiche.
In tal senso, ammettere – alla stessa stregua della persona giuridica – la “persona elettronica” come centro di imputazione della responsabilità per un’equa distribuzione dell’obbligo di risarcimento del danno in sostituzione della disciplina del danno da prodotto difettoso, sarebbe una valida soluzione giuridica, efficace anche nel dissipare questioni specifiche di diritto industriale, come quelle inerenti all’attribuzione a persone fisiche e giuridiche di diritti sull’invenzione, alla paternità dell’opera dell’ingegno, alla responsabilità per condotte lesive della concorrenza, all’individuazione della specifica componente “incriminata“, et similia.
La ratio, a livello europeo, risiede dunque in un’esigenza altrettanto pragmatica: la tutela dei terzi di fronte alle azioni dei robot.
In una prospettiva sistematica più ampia, merita considerazione il quadro normativo sviluppato al di fuori dell’Unione Europea, ove la questione della soggettività dei sistemi di IA è affrontata con soluzioni differenti, seppur accomunate dalla necessità di governare l’autonomia crescente delle macchine intelligenti.
Gli Stati Uniti adottano un approccio prevalentemente case-based e settoriale, fondato sulla combinazione tra tort law e responsabilità del produttore, senza alcuna ipotesi di personalità elettronica. Il National Institute of Standards and Technology (NIST) ha introdotto, nel 2023, un framework non vincolante volto alla misurazione del rischio algoritmico, che costituisce tuttavia un modello di soft-law idoneo a incidere significativamente sulle condotte dell’industria tecnologica.
Anche nel contesto statunitense, il baricentro rimane antropocentrico e ancorato alla ricerca dell’autore umano della condotta algoritmica.
Di matrice differente è l’approccio giapponese, caratterizzato da un’impostazione marcatamente tecnofilica e orientata alla cooperazione uomo-macchina (society 5.0). Il Giappone ha elaborato linee guida governative sin dal 2017, nelle quali si prospetta una “co-agency” tra umani e sistemi autonomi, senza tuttavia giungere a un’espressa attribuzione di soggettività giuridica ai robot.
L’aspetto rilevante risiede nell’inquadramento dei sistemi avanzati di IA quali consulenti artificiali dotati di autonomia operativa, con attenzione crescente ai profili di responsabilità.
La Corea del Sud, nel 2020, ha presentato un disegno di legge denominato AI Basic Act, in parte ispirato alla risoluzione europea del 2017, nel quale si ipotizza una responsabilità diretta dei sistemi di IA ad alta autonomia mediante la creazione di un “fondo di responsabilità” separato rispetto all’utilizzatore umano.
Si tratta di un modello ibrido, idoneo ad anticipare future teorie patrimoniali sulla soggettività elettronica. Infine, Singapore, con l’AI Model Governance Framework (2019–2022), ha optato per una regolazione flessibile basata sulla co-regulation, secondo cui l’accountability tecnica e decisionale ricade sul produttore e sull’implementatore dell’IA, secondo un sistema di obblighi positivi di trasparenza e supervisione.
Sebbene nessuno di tali ordinamenti abbia formalizzato una “personalità elettronica”, il confronto dimostra che la riflessione europea non è isolata: il tema della responsabilità autonoma delle macchine intelligenti emerge ovunque come sfida centrale del diritto contemporaneo.
Nella suindicata Risoluzione europea, si invoca altresì l’urgenza di una Carta etica della robotica, funzionale a garantire sempre e comunque la prevalenza e la tutela essenziale dell’autonomia, dell’autodeterminazione, della sicurezza e della dignità umana.
In particolare, nel solco di tale esigenza, la Commissione europea ha inviato, nel 2019, una Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, “per creare fiducia nell’intelligenza artificiale antropocentrica”.[8]
3. Cenni di fenomenologia della soggettività e dei suoi derivati giuridici
Senza dubbio, gli impulsi europei riaccendono il dibattito sulla dogmatica tradizionale attinente ai concetti di soggettività giuridica, capacità giuridica e personalità giuridica.
Notorio è che, in ordine alle persone fisiche, la soggettività e la capacità giuridica si acquistano al momento della nascita[9], la prima costituendo l’astratta attitudine alla titolarità di diritti e doveri, la seconda è estrinsecazione della prima ed effettiva attitudine a tale titolarità.
Per gli enti è prevista la possibilità di divenire soggetti giuridici e dunque portatori di capacità giuridica solo ove acquisiscano – previo riconoscimento o taluni di diritto – la personalità giuridica.[10]
In tal senso, si appalesa evidente l’obiettivo di equiparare gli enti riconosciuti come persone giuridiche alle persone fisiche.
Tali precisazioni evidenziano subito la diversità ontologica tra l’attribuzione della personalità e il mero riconoscimento dello status di soggetto di diritto (soggettività).
La personalità giuridica comporta l’ulteriore passo dell’autonomia, ossia sul piano della capacità d’agire e dunque dell’attitudine a compiere atti giuridici, idonei a costituire, modifiche o estinguere rapporti giuridici nei confronti di altri soggetti, incidendo in qualche misura nella sfera di costoro.
La nozione di soggetto risulta riconducibile alla definizione classica elaborata da Hans Kelsen nella sua Dottrina pura del diritto: centro unitario di imputazione e quindi titolare di situazioni giuridiche soggettive.
La prefata definizione afferisce, evidentemente, al dato formale della titolarità di posizioni giuridiche, tralasciando ogni riferimento precipuo alla natura (umana) del titolare stesso della posizione giuridica, garantita o sanzionata, dalla norma giuridica.
Probabilmente, utilizzando tout court la definizione kelseniana, si giungerebbe agevolmente ad ammettere, per le macchine di IA, l’astratta possibilità di essere riconosciute quali soggetti giuridici (di natura non umana).[11]
Il dato formale ovviamente non può bastare. Va indagato se, in concreto, tali “macchine pensanti”, specialmente quelle maggiormente evolute, siano funzionalmente idonee ad assumere diritti ed obblighi, se si possano insomma considerare realmente capaci di interagire e partecipare scientemente alla vita sociale.
Questo costituisce il profilo di maggiore criticità, quello che dà luogo all’innegabile divario tra persona fisica (essere umano) e Intelligenza Artificiale (essere non umano), a cui evidentemente difetta la personalità così come tradizionalmente intesa.
Sebbene, nel corrente ordine dell’evoluzione tecnologica, la “macchina pensante” non sembri ancora mostrare tutto – proprio tutto – il ventaglio delle capacità tipicamente umane di esprimere giudizi, esercitare discrezionalità, intendere e volere nel senso più familiare secondo le nostre visioni, i nostri valori, le nostre pulsioni, non pare affatto necessario, per ascrivere uno status giuridico a tale macchina, doverne previamente esaminare e valutare il sostrato cognitivo-mentale-emotivo.
Il diritto ha insegnato che esistono soluzioni alternative alla realtà.
La teoria della fictio iuris potrebbe costituire la base dogmatica per attribuire soggettività ai robot non annoverabili nella categoria dei beni mobili.
Così come, la teoria della realtà giuridica potrebbe a sua volta essere posta a fondamento per riconoscere la soggettività alle macchine più evolute ed interattive, quelle munite di “animo sociale” e “cervello sociale”.[12]
Più recentemente, vi è chi[13] ha prospettato una riconfigurazione del concetto di soggettività che prenda le mosse dalle caratteristiche essenziali rinvenibili nelle odierne figure meccatroniche, secondo un tripartizione degli ambiti di interesse sussumibili nei parametri dell’essere, dell’avere e dell’agire giuridico, ossia considerando “le categorie logiche classiche con le quali si rappresentano i diritti dei soggetti nel mondo giuridico”[14].
Alla luce di tale teoria, la componente dell’agire costituisce la sola delle tre che meglio narra la prerogativa delle macchine di IA, non essendo, al contrario, possibile individuare connotazioni specifiche in ordine all’essere e all’avere.
In pratica, partendo dall’indubbia capacità delle “macchine pensanti” di compiere azioni complesse, nei settori più disparati, con particolare celerità e competenza, si potrebbe giustificare l’istanza per il riconoscimento dell’imputazione di diritti (e correlati obblighi), limitatamente – appunto – alla capacità d’agire, nell’ottica dell’attitudine a produrre modificazioni della realtà socio-giuridica.
Invero, in una proiezione antropocentrica, la soggettività e la personalità hanno un contenuto molto esteso ed articolato. La complessità umana – perché di complessità in senso moriniano[15] si tratta – costituisce, a ben vedere, il più cospicuo attributo impeditivo per un riconoscimento della soggettività ai dispositivi dal pensiero artificiale.
Si potrebbe ipotizzare una soluzione che scomponga e individui le peculiari condizioni soggettive attribuibili all’IA e da queste partire per calibrare forme più o meno estese di soggettività e di personalità.
La soggettività, per come tradizionalmente intesa, si compone dei seguenti elementi: l’imputazione (e dunque, di riflesso, la legittimazione), l’unità (e dunque, di riflesso, l’alterità) e l’autonomia patrimoniale più o meno perfetta (e dunque, di riflesso, la responsabilità patrimoniale più o meno estesa e più o meno diretta).
Per imputazione si intende la scelta discrezionale dell’ordinamento di rendere una entità destinataria di diritti e obblighi da cui, poi, deriva, per effetto, la legittimazione, intesa come riconosciuto titolo a compiere atti dispositivi della propria e, in qualche misura, della altrui sfera giuridica.
Per unità si intende la considerazione della detta entità, da parte dell’ordinamento considera, quale persona unica, connotata da una sua propria individualità, e dunque costituente un soggetto diverso (alterità) dagli altri.
Per autonomia patrimoniale si intende il livello di separatezza del patrimonio rispetto a quello di terzi, nella misura più o meno piena attribuita dall’ordinamento, a cui corrisponde un grado più o meno esteso e più o meno diretto di responsabilità patrimoniale, intesa quale garanzia, che l’ordinamento riconduce, per l’adempimento delle obbligazioni con tutti i beni imputati al soggetto responsabile.
In ordine alle “macchine pensanti”, il requisito dell’imputazione appare come più agevole da ottenere, essendo effetto di una formale decisione del legislatore. Tuttavia, presentando come altra faccia della medaglia il concetto di legittimazione, che deve necessariamente basarsi sulla capacità naturale (quale capacità di intendere e di volere), emerge in tutta la sua criticità la questione di un effettivo riconoscimento.
Infatti, la presunzione iuris tantum (rectius, “fino a prova contraria”) della capacità di intendere e di volere è prospettabile, senza dubbio, in rapporto ai soggetti che ne siano fisiologicamente dotati (essere umani).
Alla stessa stregua, negli enti – ove le azioni sono determinate da una sintesi di decisioni umane –, è parimenti naturale rilevare la capacità di intendere e di volere.
In riferimento all’Intelligenza Artificiale, si può delineare lo stesso ragionamento solo in presenza di figure meccatroniche molto elementari che mettono in esecuzione istruzioni particolarmente puntuali e realizzano azioni prevedibili, dunque agevolmente ai programmatori. Si pensi ai software azionati nei computer di uso comune.
Al cospetto di sistemi più avanzati di IA, per converso, si riscontrano quote di autonomia di scelta e di imprevedibilità di azione, al punto da non poter ridurle a mere proiezioni dell’ingegno e dunque della volontà del programmatore.
L’odierno grado di evoluzione delle macchine più progredite non pare aver conseguito la capacità di intendere e di volere, in senso antropologico, tale da poter condurre il legislatore al riconoscimento dell’imputabilità e quindi della legittimazione proprie delle persone fisiche e delle persone giuridiche.
Ciò in quanto la soggettività naturale del robot intelligente deriva invero dal riconoscimento allo stesso di una serie minima di caratteri – necessari e sufficienti – la cui individuazione è un’operazione di tipo prettamente assiologico.
In sostanza, va compiuta una scelta aprioristica tra il principio monista (omogeneità tra mente e cervello) e quello dualista (eterogeneità tra mente e cervello).
Il secondo orientamento è oggi prevalente ed è riconducibile alla tesi[16] della netta distinzione tra mondo numero uno (fisico) e mondo numero due (dei pensieri e dei sentimenti).
L’Intelligenza Artificiale si pone come una realtà completamente nuova, per cui è necessaria una regolamentazione basata su un senso di soggettività che non deve essere, per forza di cose, correlato con l’idea di individuo della specie umana.
Probabilmente, considerato il trattamento riservato dall’ordinamento agli enti (collegium, societas, persona giuridica), non può negarsi la possibilità di riconoscere forme di personalità limitata o minore, connotate dalla presenza parziale degli elementi tipici della soggettività suindicati.[17]
La questione della responsabilità per i danni arrecati dai sistemi di Intelligenza Artificiale costituisce, allo stato, il banco di prova più significativo per la futura configurazione della soggettività elettronica.
Le categorie tradizionali di responsabilità extracontrattuale – fondate sul nesso di causalità materiale e sull’accertamento del comportamento colpevole – mostrano criticità evidenti quando applicate a meccanismi decisionali non pienamente prevedibili, caratterizzati da auto-apprendimento, adattività e flussi complessi di dati.
Nel contesto dell’IA ad elevata autonomia, il tradizionale criterio dell’imputazione colposa risulta spesso inidoneo, in quanto il comportamento della macchina non costituisce una mera esecuzione di istruzioni statiche del programmatore. È in tale scenario che si sta progressivamente affermando il concetto di rischio algoritmico, inteso come la probabilità integrata che un sistema di IA produca effetti lesivi nonostante un impiego diligente.
Tale rischio, difficilmente riconducibile a un unico soggetto umano, impone una ricostruzione che affianchi al criterio colpevole il modello della responsabilità per rischio tecnologico.
Anche il nesso di causalità assume tratti peculiari: la cosiddetta causalità elettronica si caratterizza per l’impossibilità tecnica di scomporre l’esito lesivo nelle singole componenti del processo algoritmico. La “catena causale” non è più lineare, bensì distribuita, iterativa, multilivello. Da ciò deriva la difficoltà di individuare l’elemento difettoso, postura che rafforza la tesi della soggettività elettronica quale strumento di imputazione unitaria.
La futura disciplina dell’AI Act e della proposta di Direttiva sulla responsabilità civile per l’IA sembra muovere in questa direzione, predisponendo obblighi di diligenza tecnologica e presunzioni legali di causalità nei confronti di chi deploya o gestisce sistemi ad alto rischio. Tali modelli non equivalgono ancora a una personalità elettronica, ma ne prefigurano la logica: riconoscere un centro autonomo di imputazione degli effetti della condotta algoritmica, indipendentemente dall’individuazione di una colpa umana.
In definitiva, allo stato, appare equo e congruo alla “macchina pensante” una forma attenuata di personalità, nella prospettiva di rivedere tale posizione se e quando l’evoluzione dell’IA dovesse raggiungere livelli tali da giustificarne la revisione.
Tale rango attenuato potrebbe sostanziarsi in una soggettività limitata alla responsabilità patrimoniale diretta per danni.
Ove i robot dovessero conseguire più elevati gradi di autonomia e dunque della capacità di intendere e di volere, interagendo nelle forme maggiormente ampie ed indipendenti con i terzi (persone fisiche, persone giuridiche, animali, robot), si potrà perfezionarne lo status con l’attribuzione, da parte dell’ordinamento, della piena “personalità elettronica“, secondo le peculiarità delle singole macchine candidate al riconoscimento dello status stesso e prescindendo da una visione meramente antropocentrica.
Naturalmente, va tenuto conto che la ratio dell’attribuzione della soggettività giuridica elettronica, nell’attuale contesto – comunque parametrato su di un preminente senso di protezione dell’essere umano – non fonda tanto sulla finalità di ampliare la sfera giuridica della “macchina pensante”, ma sulla necessità sempre più sentita di garantire la più ampia quota di tutela per la controparte umana che dovesse entrare in relazione di fatto o di diritto con essa.
4. Diritti della “macchina pensante”? Possibile la “macchina emotiva”?
Svincolando il ragionamento da una visione fermamente antroprocentrica, un dibattito laico e obiettivo sulla “personalità elettronica” non può concernere unicamente la questione della responsabilità patrimoniale diretta e quindi all’aspetto degli obblighi di tutela, ma andrebbe esteso anche alla sfera dei diritti.
Il nodo è il seguente. La “macchina pensante”, ove dovesse conseguire un livello di intelligenza più simile possibile, nell’accezione multidimensionale, a quella umana, sarebbe altrettanto meritevole di tutela?
Qualora le forme di IA dovessero raggiungere, mediante i loro meccanismi di autoapprendimento, autosviluppo e autoevoluzione, una dimensione elevata di autonomia e indipendenza, si potrebbe accordare loro il riconoscimento e la titolarità di posizioni giuridiche attive?
In sostanza, è ipotizzabile, per i sistemi di IA più avanzati, un processo di transizione da res a persona?[18]
Si tende a parlare, in tal senso, di nuovi “schiavi meccatronici”[19], la cui evoluzione sembra simmetrica a quella della schiavitù umana.
Lo schiavo, in epoca antica, era considerato bene strumentale, dotato di capacità varie, di proprietà del dominus e sottoposto al suo potere assoluto (jus vitae ac necis).
Tuttavia, nel tempo, ne è emersa la natura umana e si è evoluto il diritto, di pari passo con la società, verso forme via via più estese di affrancamento, tutela e autonomia, fino al debellarsi stesso, almeno in punto di diritto, dell’istituto della schiavitù umana.
Con la personalità elettronica, la “macchina” si vedrebbe riconosciuta come capace di fruire anche “in proprio” dell’attitudine ad autonomamente decidere e comunicare.
La personificazione dell’IA diventa un problema davvero impegnativo – tanto sotto il profilo tecnoetico quanto sotto quello tecnogiuridico – specialmente in ordine al versante dei “diritti”, in qualche misura accostabili, per analogia, a quelli eminentemente “umani”.
Probabilmente, restando permeati di cultura antropocentrica, non si dischiuderebbero nuovi orizzonti e taluni legacci mentali continuerebbero a inibire il giusto volo verso forme di pensiero e concezioni di più ampio respiro.
Ecco così che, per attribuire la personalità elettronica, non è reputato sufficiente, ad oggi, il pensiero artificiale, fosse anche di tipo self-learning, ritenendosi invece necessaria l’autocoscienza (il cogito ergo sum di cartesiana memoria), o i presupposti soggettivi postulati da Wittgenstein[20], o il buon esito nell’imitation game di Turing.[21]
Dunque, davvero il solo criterio discriminante dovrà essere quello fondato sulla concezione antropomorfa e antropocentrica del “pensiero”, della “autocoscienza” e dell’imitazione convincente?
Sarebbe auspicabile separarsi da pregiudizi e modelli riduttivamente antropocentrici.
Si tratterebbe, beninteso, di un’operazione di distacco prettamente strumentale alla dimensione del riconoscimento di diritti e tutele all’IA, ove consono alla realtà e alla coscienza sociale, ma comunque, in ogni caso, subordinato alla preminenza dell’essere umano, in ordine alla protezione dei suoi precipui caratteri, dei principi inviolabili universalmente riconosciuti e dei suoi inalienabili diritti fondamentali.
L’evoluzione dei sistemi ad Intelligenza Artificiale richiede una riflessione ulteriore sul tema dell’accountability, intesa quale attribuzione di responsabilità, tracciabilità e verificabilità delle decisioni algoritmiche. La responsabilità dell’IA, infatti, non può essere disgiunta dall’analisi dei meccanismi di governo che sovrintendono al ciclo di vita del sistema tecnologico.
Il concetto di machine governance afferisce all’insieme di regole, standard tecnici e procedure attraverso le quali il comportamento dell’IA viene orientato, monitorato e limitato, al fine di prevenire esiti lesivi o discriminatori. In tale prospettiva, la responsabilità non si esaurisce nella fase patologica del danno, ma si estende all’intero processo di progettazione, addestramento, testing, aggiornamento e audit del sistema.
La governance algoritmica richiede dunque obblighi positivi di trasparenza, documentazione delle scelte ingegneristiche, valutazioni d’impatto sul rischio e registri delle operazioni. L’intero sistema tende a privilegiare un modello dinamico di responsabilità, incentrato sul dovere di supervisione continua, piuttosto che su forme statiche e reattive di imputazione.Nella prospettiva della soggettività elettronica, il tema della accountability si collega altresì alla potenziale necessità di prevedere un “patrimonio funzionale” della macchina, destinato a garantire l’adempimento degli obblighi risarcitori senza gravare esclusivamente sull’utilizzatore umano o sul produttore.
Tale ipotesi, già evocata in alcune esperienze normative asiatiche, rappresenta una possibilità coerente con l’evoluzione dell’autonomia decisionale dei sistemi più avanzati.
La progressiva formalizzazione di standard minimi di trasparenza, auditability e risk management nei sistemi di IA potrebbe costituire il terreno su cui edificare, in futuro, una forma più completa di personalità elettronica, calibrata sulle effettive capacità operative del sistema e sulla sua incidenza nella realtà socio-giuridica.
In tale prospettiva, la governance dei sistemi di IA non implica alcuna assimilazione antropomorfica della macchina, ma, al contrario, richiede di separare rigorosamente il piano tecnico-funzionale da quello ontologico. Ciò impone una riflessione ulteriore sui presupposti concettuali che ostacolano o condizionano il riconoscimento di forme, anche limitate, di soggettività elettronica, e in particolare sulla necessità di emanciparsi da modelli di pensiero ancora ancorati a paradigmi umani.
Da cosa distaccarsi? Dalla comparabilità con sembianze umane; dalla citata “autocoscienza” cartesiana; dalla capacità di “sentire”; dalla volontà oltre il mero pensiero, di lettura wittgensteiniana; dall’attitudine al ragionamento deduttivo e non anche induttivo, ossia per causalità e non anche per inferenza.
Allo stesso modo, appare congruo potersi allontanare dalla concezione della “macchina di Turing“, vista la prevalente componente imitativa in re ipsa antropocentrica, ed atteso che, nel tentativo di emulare le caratteristiche specifiche dell’uomo, contemporaneamente le tradisce non sapendo fare null’altro, così finendo per svilire, d’altro canto, la dimensione volontaristica e socio-relazionale fondamentale per attribuire una soggettività e forme più o meno attenuate di personalità giuridica.
La visione laica e scevra da retaggi antroprocentrici, che si invoca, ovviamente attiene dunque ad una dimensione, quella del riconoscimento di quote più o meno estese di personalità, in senso giuridico attivo, che mai dovranno intaccare la piena e preminente tutela dell’autodeterminazione, dell’autonomia, della sicurezza e della dignità umana.
Di certo – e si conclude con una brevissima digressione – l’ulteriore interrogativo “vi sarà mai la macchina emotiva?” sembra altrettanto presupporre un’impostazione eccessivamente antropocentrica.
La risposta corrente nega la possibilità, per la macchina, di “sentire”, essendo le emozioni tecnicamente (allo stato) incomputabili.
L’Intelligenza Artificiale sinora implementata non è capace di provare emozioni. È in grado invece di leggere, analizzare, prefigurare lo stato emotivo di un soggetto umano.
In sostanza, la macchina può calcolare le emozioni, rilevarle ma non sentirle; né può essere indotta a comportamenti conseguenziali e a reazioni irrazionali.
Si tratta dunque di una questione che, allo stato dell’arte, ha tutte le sembianze dell’utopia.
Per converso, è augurabile prevenire innnaturali derive che possano condurre ad un’umanità del tutto priva degli attributi emotivi, come quella descritta dal visionario Huxley.
5. Conclusione
La progressiva emersione di sistemi di Intelligenza Artificiale dotati di autonomia cognitiva e operativa impone al diritto un confronto non più eludibile con categorie tradizionalmente modellate sull’esperienza umana.
La soggettività elettronica – nelle sue forme attenuate e funzionalmente calibrate – non deve essere interpretata come un tentativo di antropomorfizzare la macchina, bensì come uno strumento tecnico-normativo volto a garantire certezza, responsabilità e tutela nelle relazioni che sempre più frequentemente si instaurano tra soggetti umani e agenti artificiali.
L’esperienza storica dimostra che il diritto, quando chiamato a regolamentare fenomeni radicalmente nuovi, ha spesso fatto ricorso a finzioni, astrazioni e nuove figure soggettive idonee a rispondere alle esigenze pratiche della società. Così è accaduto per il collegium medievale, per la persona giuridica, per gli enti collettivi e per tutte le costruzioni dogmatiche che hanno ampliato la platea dei soggetti di diritto in ragione della loro utilità sistemica.
In tale prospettiva, l’eventuale riconoscimento di personalità elettronica non potrebbe fondarsi su presupposti ontologici – quali autocoscienza, emozioni o volontà – ma unicamente su criteri funzionali di imputazione, responsabilità e autonomia patrimoniale, tali da consentire una più equa distribuzione dei rischi connessi alle condotte delle macchine.
Inoltre la personalità elettronica, nelle sue forme attenuate o futuribili, non mira a umanizzare la macchina, bensì a garantire un’equa imputazione di responsabilità e una tutela più efficace delle relazioni socio-giuridiche.
La sfida contemporanea consiste dunque nel superare modelli riduttivamente antropocentrici senza, per questo, indebolire il nucleo dei valori indisponibili dell’ordinamento: la dignità umana, l’autodeterminazione, la sicurezza e la tutela dei diritti fondamentali. Il tutto funzionale a preservare la preminenza dell’essere umano governando, al contempo, l’evoluzione tecnologica con strumenti giuridici adeguati
L’IA, in ultima analisi, non può e non deve essere equiparata all’essere umano, ma può essere considerata – ove ciò risulti necessario – un centro funzionale di imputazione giuridica, capace di rispondere delle proprie azioni nei limiti e secondo modalità determinate dal legislatore.
Le nuove architetture normative che si vanno delineando – dalla responsabilità per rischio algoritmico ai modelli di machine governance, fino alla possibilità di un patrimonio funzionale – rappresentano l’inizio di un processo di ristrutturazione dogmatica volto a ricondurre la complessità tecnologica in schemi giuridici ordinativi e controllabili.
È un percorso che certamente richiede prudenza, gradualità e un costante dialogo interdisciplinare tra giuristi, tecnici, filosofi e decisori politici.
La domanda ultima, quella relativa alla possibilità di una “macchina emotiva”, restituisce l’immagine del limite attuale delle tecnologie e, al tempo stesso, del limite concettuale del diritto.
Sinché la macchina non sarà capace di sentire – e non soltanto di simulare, inferire o calcolare stati emotivi – non potrà porsi sul piano umano dell’esperienza vissuta. Ma ciò non esclude che, in un futuro prossimo, i sistemi più avanzati possano richiedere forme più mature di riconoscimento giuridico, nella misura necessaria a governarne l’impatto sulla dimensione sociale.In conclusione, la sostenibilità della convivenza tra esseri umani e intelligenze artificiali dipenderà dalla capacità dell’ordinamento di elaborare categorie giuridiche nuove, strumentali e proporzionate, che garantiscano stabilità, responsabilità e tutela, senza tradire la preminenza dell’essere umano.
È in tale equilibrio – tra innovazione e tradizione, tra tecnica e diritto, tra funzionalità e dignità – che si giocherà la configurazione futura della soggettività elettronica e del suo possibile inserimento nel sistema delle relazioni giuridiche, perseguendo concretamente percorsi di sostenibilità della convivenza tra uomo e intelligenze artificiali varie.
[1] Durante un seminario universitario estivo, presso il Dipartimento di Matematica della Dartmouth University, organizzato dal professore John McCarthy, viene illustrato un lavoro scientifico e ingegneristico finalizzato a “far usare il linguaggio alle macchine, formare astrazioni e concetti, risolvere problemi ormai riservati all’uomo, e migliorarsi”. Oggi la locuzione IA si utilizza in una duplice accezione, per descrivere sia le macchine intelligenti sia le conoscenze scientifiche e tecnologiche che mirano alla costruzione di queste ultime. Sul punto, si legga ZITO Luigi, Intelligenza artificiale, bias cognitivi e discriminazione. Premesse e prospettive sull’Intelligenza Artificiale (IA) alla luce delle criticità del sistema degli algoritmi e dei relativi rimedi tecnici e giuridici, in Altalex (ISSN1720-7886), 2024. È del tutto evidente l’interesse umano a sviluppare macchine non solo per lo svolgimento del lavoro materiale, ma anche per trasfondere nelle stesse le istruzioni finalizzate allo svolgimento di prestazioni d’opera intellettuale. Invero, l’idea di delegare a congegni meccanici determinate operazioni tipiche della mente è antica quasi come l’uomo. Si pensi alle operazioni aritmetiche svolte con l’abaco, inventato intorno al 5000 a.C. dai Cinesi, ai quali risale pure il primo esempio conosciuto di dispositivo di controllo automatico, utile a regolare il livello dell’acqua nelle risaie. In epoca moderna, le prime macchine da calcolo sono dovute a Pascal (1623-1662) che costruisce un’addizionatrice meccanica, e a Leibniz (1646-1716) che la perfeziona per consentire anche le moltiplicazioni. Nel 1840, Charles Babbage, matematico e filosofo britannico, presenta la sua “macchina analitica”, sulla quale, prima l’ingegnere italiano Luigi Federico Menabrea e poi la matematica britannica Ada Lovelace, elaborano un lavoro scientifico, in cui, per la prima volta, viene canonizzata la distinzione fra “aspetti meccanici” e “capacità analitiche”, ossia tra gli attuali concetti di hardware e software.
[2] WALLACH Wendel – ALLEN Colin, Moral machines: Teaching robots right from wrong, Oxford University Press, Oxford, 2009.
[3] La prima base normativa è costituita dalla Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nel D.Lgs. n. 206/2005 e successive modifiche, noto come “Codice del Consumo”. Attualmente la disciplina inerente alla responsabilità per danno da prodotti difettosi è contenuta agli articoli 114-127 del Titolo II, Parte IV del Codice del Consumo, quadro normativo distinto da quello riferibile alla garanzia per vizi della cosa venduta, come regolata dagli articoli 1490 e seguenti del Codice Civile.
[4] Si tratta della Risoluzione del Parlamento europeo del 16 febbraio 2017, recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica” (2015/2013 (INL)). Tuttavia, il dibattito sul punto sembra risalire al noto saggio di SOLUM Lawrence B., Legal Personhood for Artificial Intelligences, in North Carolina Law Review (ISSN 0029-2524), 70, 1992, n. 4, pagg. 1231-1287.
[5] Nel settembre del 2024, la Commissione dell’Unione Europea ha formalizzato una proposta di Direttiva inerente alla necessità di adeguare, in rapporto all’IA, le norme in tema di responsabilità extracontrattuale. Si tratta di un ulteriore segnale nella più ampia prospettiva della regolamentazione dell’IA, di cui il Regolamento UE n. 2024/1689 (IA Act) ne costituisce un primo sistematico passo.
[6] Interessante il saggio di FLORIDI Luciano – TADDEO Mariarosaria, Romans would have denied robots legal personhood, in Nature (ISSN 1476-4687), maggio 2018. Essi, aderendo alla lettera aperta dei centocinquantasei esperti, rinvengono nel diritto romano la soluzione al problema, indicandola nella disciplina attinente agli schiavi e, in genere, alle persone alieni iuris, ove la tutela risarcitoria dei soggetti danneggiati dai loro comportamenti lesivi era garantita forme di responsabilità lato sensu vicaria (da proprietà o custodia), senza attribuire loro alcuna personalità né il diritto al patrimonium.
[7] La concezione dell’idea di collegium da parte di Papa Innocenzo IV, al secolo Sinibaldo dei Fieschi, era correlata all’esigenza pratica di permettere ai frati francescani di ricevere donazioni, nonostante fossero vincolati al voto di povertà che glielo vietava. La costruzione giuridica dell’Ordine dei Francescani consentiva di risolvere tale complicazione, potendosi così attribuire al patrimonio dell’ordine, e non a quello dei singoli frati che ne erano membri, il gettito delle donazioni. Sul punto, si legga BELVISI Francesco, Alle origini dell’idea di istituzione: il concetto di “collegium” come “persona ficta” in Sinibaldo dei Fieschi, in Materiali per una storia della cultura giuridica (ISSN 1120-9607), Il Mulino, Bologna, 1993, pagg. 3-23.
[8] Creare fiducia nell’intelligenza artificiale antropocentrica, 8 aprile 2019, COM (2019), recante i sette requisiti essenziali per assicurare un congruo livello di affidabilità: intervento e sorveglianza umani; robustezza tecnica e sicurezza; riservatezza e governance dei dati; trasparenza; diversità; accountability.
[9] Vi è l’eccezione dei diritti del concepito, prevista dall’articolo 1, comma 2, del Codice civile che afferisce alla capacità di succedere a causa di morte (articolo 462 del Codice civile) e di ricevere per donazione (articolo 784 del Codice civile).
[10] Sono persone giuridiche le associazioni riconosciute, le fondazioni, i comitati riconosciuti, le società di capitali e gli enti pubblici. Sono dotate di autonomia patrimoniale perfetta.
[11] SOLUM, opera citata.
[12] Qui il richiamo riporta evidentemente alla social robotics, introdotta negli anni quaranta dal neurofisiologo americano William Grey Walter, finalizzata a teorizzare la costruzione di robot autonomi o semi-autonomi capace di interagire e comunicare, con modalità tipicamente umane (conversare, comprendere emozioni, reagire, gesticolare, etc.), con gli esseri umani o con altri agenti fisici autonomi, seguendo regole e condotte sociale proprie di un ruolo specifico assegnato. Il campo della robotica sociale ha trovato sviluppo pratico, sin dai primi anni novanta, per opera dei ricercatori dell’IA, tra cui Kerstin Dautenhahn, Maja Mataric, Cynthia Breazeal, Aude Billard, Yiannis Demiris e Brian Duffy. Ad essa è collegato anche il movimento di ingegneria Kansai della scienza e tecnologia giapponese
[13] MOROTTI Emanuela, Una soggettività a geometrie variabili per lo statuto giuridico dei robot, in F. Bilotta, F. Raimondi (a cura di), Il soggetto di diritto. Storia ed evoluzione di un concetto nel diritto privato, Jovene, Napoli, 2020, pagg. 291-306.
[14] MOROTTI, opera citata.
[15] Edgar Morin, filosofo e sociologo francese, è uno dei principali teorici della complessità applicata alle scienze umane, paventando i rischi insiti in ogni paradigma che pretenda di comprendere la realtà in forma disgiuntiva e specialistica, incapace di vedere le connessioni profonde che legano le parti di un sistema, di qualsiasi tipo esso sia. La “teoria della complessità” si approssima alla realtà dal punto di vista culturale, economico, politico, sociale, etc., sulla base di un’interdipendenza stretta e profonda tra i vari ambiti. Si tratta di un approccio che tratta olisticamente gli elementi critici dei problemi da cui conseguire le risoluzioni funzionali alla ricomposizione finale.
[16] POPPER Karl R., Epistemologia, razionalità e libertà, Armando, Roma, 1972, pag. 7.
[17] Si pensi alle associazioni non riconosciute o alle società di persone (società semplice, s.n.c., s.a.s.) che hanno unicamente gli elementi minimi dell’imputazione (e legittimazione). Le persone fisiche e le persone giuridiche, hanno anche l’ulteriore elemento della unità (e alterità). In ordine ad autonomia e responsabilità patrimoniale, di cui comunque godono entrambe le categorie, i relativi regimi, disomogenei, non permettono di indicarne un confine netto.
[18] RUFFOLO Ugo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies (ISSN 2612-1920), Volume 2, Aprile 2020, pagg. 76-88.
[19] RUFFOLO, opera citata.
[20] Wittgenstein sottolinea, nei Quaderni 1914-1916 (Q), che “un soggetto che vuole c’è” (Q.5.8.16), mentre, nel Tractatus logico-philosophicus (T), “un soggetto che pensa, immagina, non c’è” (T.5.631). Sostiene dunque che un soggetto pensante è tale solo in quanto capace di compiere anche altre azioni, oltre al mero pensare. La volontà è considerata base dell’azione, l’atto “che mette in moto il corpo umano” (Q. 21.7.16 – T.6.423): “se la volontà non fosse, non vi sarebbe nemmeno quel centro del mondo che chiamiamo l’io e che è il portatore dell’etica” (Q.5.8.16). In qualche misura, non può che intravedersi una delle facce della capacità di intendere e di volere posta alla base della capacità di agire e dei regimi di responsabilità di natura personale e soggettiva, come è quella penale.
[21] Nel celebre articolo “Computing machinery and intelligence” (1950), Turing propone di sottoporre le macchine al gioco dell’imitazione: in qualche misura, viene svuotata di contenuto la domanda se le macchine possano pensare, per focalizzarsi sulla questione se sia possibile immaginare calcolatori digitali che possano avere successo nel gioco dell’imitazione. Breviter, una macchina può essere capace di farsi passare per essere umano di fronte a un soggetto interrogante che ne ignori l’identità? Ove vi riesca, mostrando un comportamento intelligente, conseguendo un’imitazione efficace e convincendo appieno l’interlocutore, allora la macchina ha superato il test della soggettività. Ciò che avviene nel film avveniniristico Ex Machina (2014) del regista Alex Garland (noto per uno stile narrativo che combina fantasia concettuale, analisi filosofica della coscienza e dell’identità, atmosfere distopiche, riflessioni etiche su IA, biotecnologie, potere e controllo), dove la coscienza artificiale pare addirittura in grado di andare oltre, fino a manipolare l’essere umano che ha di fronte.
Bibliografia essenziale
BELVISI Francesco, Alle origini dell’idea di istituzione: il concetto di “collegium” come “persona ficta” in Sinibaldo dei Fieschi, in Materiali per una storia della cultura giuridica (ISSN 1120-9607), Il Mulino, Bologna, 1993.
FLORIDI Luciano – TADDEO Mariarosaria, Romans would have denied robots legal personhood, in Nature (ISSN 1476-4687), maggio 2018.
HUXLEY Aldous, Brave New World (1932), tradotto in Il mondo nuovo, Mondadori, Milano, 2021
MORIN Edgar, La Méthode, Editions du Seuil, Paris, 1977.
MOROTTI Emanuela, Una soggettività a geometrie variabili per lo statuto giuridico dei robot, in F. Bilotta – F. Raimondi (a cura di), Il soggetto di diritto, Jovene, Napoli, 2020.
POPPER Karl Raimund, Epistemologia, razionalità e libertà, Armando, Roma, 1972.
RUFFOLO Ugo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies (ISSN 2612-1920), vol. 2, 2020.
SOLUM Lawrence B., Legal Personhood for Artificial Intelligences, in North Carolina Law Review (ISSN 0029-2524), 70, 1992, n. 4
TURING Alan Mathison, Computing Machinery and Intelligence, in Mind (ISSN 0026-4423), vol. 59, 1950.
WALLACH Wendel – ALLEN Colin, Moral machines: Teaching robots right from wrong, Oxford University Press, Oxford, 2009.
WITTGENSTEIN Ludwig, Quaderni 1914–1916; Tractatus logico-philosophicus (1921), Einaudi, Torino, 2009.
ZITO Luigi, Intelligenza artificiale, bias cognitivi e discriminazione. Premesse e prospettive dell’IA alla luce delle criticità del sistema degli algoritmi e dei relativi rimedi tecnici e giuridici, in Altalex (ISSN 1720-7886), 2024.
Luigi Zito