Il Codice di Buone Pratiche sull’IA, ovvero “una tigre di carta”

La legge sull’IA1 definisce i modelli generali come quelli che “anche quando sono addestrati con una grande quantità di dati utilizzando l’autocontrollo su larga scala, mostrano una generalità significativa e sono in grado di svolgere con competenza, un’ampia gamma di compiti distinti indipendentemente dal modo in cui i modelli sono immessi sul mercato e che possono essere integrati in una varietà di sistemi o applicazioni a valle“.2

Sono i “considerando” della legge sull’IA a fornire dei criteri perché si possa parlare di loro significativa generalità e di capacità a svolgere un’ampia gamma di compiti distinti: “mentre la generalità di un modello potrebbe, tra l’altro, essere determinata anche da una serie di parametri, si dovrebbe ritenere che i modelli con almeno un miliardo di parametri e formati con una grande quantità di dati utilizzando l’autocontrollo su larga scala mostrino una generalità significativa e svolgano con competenza un’ampia gamma di compiti distintivi”.3

A fornire degli esempi su quali possano essere questi modelli è il considerando 99 della legge sull’IA: “i grandi modelli di IA generativa sono un tipico esempio di modello di IA per finalità generali, dato che consentono una generazione flessibile di contenuti, ad esempio sotto forma di testo, audio, immagini o video, che possono facilmente adattarsi a un’ampia gamma di compiti distintivi“.

Si specifica che la generalità significativa e la capacità di eseguire con competenza una vasta gamma di compiti distintivi e quindi un modello di IA che possa essere definito generale, può nascere anche dallo sviluppo, il perfezionamento, la modifica di modelli che avevano un compito specifico o erano chiamati a svolgere una serie di compiti in un dominio specifico ma non possono essere considerati modelli generali, differenti da quello finale, quelli ottenuti durante le diverse fasi di sviluppo di un unico modello.

È il Centro Comune di ricerca della Commissione4 che si occupa di studiare e approfondire singoli aspetti e fattispecie sui modelli di IA perché poi l’Ufficio per l’IA possa rendere a sua volta chiarimenti a chi ne faccia richiesta.

I modelli di IA per finalità generali possono determinare rischi sistemici vale a dire rischi di danni su vasta scala derivanti dai modelli ritenuti più avanzati in quel dato momento storico o da altri modelli che hanno un impatto equivalente.5

Ciò vuol dire che lo stato dell’arte può costantemente cambiare, quindi i modelli più avanzati possono essere nuovi e comportare nuovi rischi, pertanto, la legge sull’IA classifica un modello di IA per finalità generali con rischio sistemico se rientra tra i più avanzati in quel momento o se ha un impatto equivalente.6

Tali rischi possono manifestarsi, ad esempio, attraverso l’abbassamento degli ostacoli allo sviluppo di armi chimiche o biologiche o questioni indesiderate di controllo sui modelli autonomi di IA per finalità generali.7

La soglia individuata dalla legge sull’IA perché un modello esistente possa essere considerato superato dallo sviluppo tecnologico, è di 10 25 operazioni in virgola mobile (FLOP) utilizzate per addestrare il modello.8

Dove l’espressione numero in virgola mobile (in inglese floating point) in analisi numerica indica il metodo di rappresentazione approssimata dei numeri reali e di elaborazione dei dati usato dai processori per compiere operazioni matematiche.

A supervisionare costantemente gli sviluppi tecnologici e industriali è l’Ufficio per l’IA mentre la Commissione può aggiornare la soglia del numero di operazioni perché possa essere qualificato nuovo un modello, mediante l’adozione di un atto delegato.9

Ed è sempre la Commissione ad avere il potere di designare modelli aggiuntivi che presentano un rischio sistemico, sulla base di criteri quali le valutazioni delle capacità del modello, il numero di utenti, la scalabilità o l’accesso agli strumenti.10

Centrale nella normazione del Regolamento sull’IA è il sistema di classificazione del rischio, perché se da un lato si vuole garantire lo sviluppo tecnologico, l’innovazione degli strumenti, dall’altra si vogliono gestire i potenziali rischi.11

Quello del rischio è un concetto probabilistico e richiede perché esista, una sorgente di pericolo e la possibilità che si trasformi in danno.

L’AI Act individua e definisce 4 categorie di rischio legate ai sistemi di IA:

  • rischio inaccettabile;
  • rischio elevato;
  • rischio limitato;
  • rischio minimo o nullo.

La prima categoria comprende quei sistemi che violano i valori fondamentali dell’UE o i diritti umani e quindi sono vietati.12

Nella seconda categoria a rischio elevato sono compresi un’ampia gamma di sistemi che potrebbero causare danni significativi in caso di malfunzionamento13 ed è per questo che sono sottoposti obbligatoriamente a valutazioni, test di conformità, obbligo di adozione di misure di sicurezza e gestione del rischio, trasparenza sulla modalità di funzionamento del sistema, supervisione umana.

La terza categoria è quella di sistemi a rischio limitato in cui sono compresi quelli con un rischio minore, come chatbot generici o software di elaborazione delle immagini.14

Questi sistemi devono comunque rispettare alcuni principi di trasparenza e robustezza, ad esempio l’utente che vi interagisca ha il diritto di sapere sempre se sta comunicando con una chatbot o con un essere umano.

Della quarta categoria fanno parte i sistemi a rischio minimo o nullo, come calcolatrici15 o videogiochi semplici.

Un esempio comune è una calcolatrice basata sull’intelligenza artificiale per smartphone, o ancora un’applicazione per la gestione di liste della spesa, in entrambi i casi non c’è la conservazione dei dati degli utenti che le utilizzano.

L’AI Act allora si fonda su un approccio basato sul rischio che richiede trasparenza e supervisione umana, senza dimenticare però gli orientamenti etici.16

Sono stati elaborati in proposito 7 principi etici non vincolanti per l’IA tesi a garantire che l’IA sia coerente, affidabile, eticamente valida e antropocentrica, in linea con la Carta e con i valori su cui si fonda l’Unione.

La necessità di un approccio etico17 dell’IA deriva dal fatto che nessuna tecnologia è neutra18, superando da una parte “il pensiero unico” ossia che ogni sviluppo tecnologico sia inevitabile e che i progettisti informatici hanno precise responsabilità professionali.19

Secondo gli orientamenti dell’AI HLEG20 si chiede che i sistemi di IA siano sviluppati e utilizzati con “intervento e sorveglianza umani” ossia come strumenti al servizio delle persone, nel rispetto della dignità umana e dell’autonomia personale.21

Ancora che in casi di problemi ci sia “robustezza tecnica e sicurezza“, vale a dire che i sistemi di IA siano sviluppati e utilizzati in modo che non sia alterato l’uso o le prestazioni del sistema di IA sì da non consentire l’uso illegale da parte di terzi e ridurre al minimo i danni involontari.

Che sia rispettata la “vita privata e la governance dei dati“, elaborando al contempo dati che soddisfino livelli elevati in termini di qualità e integrità.

Che ci sia “trasparenza” nello sviluppo e utilizzazione dei sistemi realizzata in primis attraverso un’adeguata tracciabilità e spiegabilità, che vuol dire rendere gli esseri umani consapevoli di comunicare o interagire con un sistema di IA e informare debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate, dei loro diritti.

Con “diversità, non discriminazione ed equità” si intende che i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l’uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell’Unione o nazionale.

Infine che i sistemi di IA siano sviluppati e utilizzati in modo sostenibile e rispettoso dell’ambiente e in modo da apportare benefici a tutti gli esseri umani e quindi garantendo un “benessere sociale e ambientale“.22

Proprio la valutazione che rischi sistemici23 che potrebbero derivare dall’utilizzo diffuso di modelli di IA per finalità generali (GPAI)24, ha fatto avvertire alla Commissione Europea come cosa necessaria stabilire delle norme per i fornitori di tali modelli, al fine di garantire il rispetto della trasparenza, delle norme sul diritto d’autore e la valutazione nonché attenuazione dei sopra detti rischi sistemici.25

Il 2 agosto 2025 è entrato in vigore il codice di buone pratiche sull’IA per i fornitori di modelli per finalità generali e di quelli che presentato rischi sistemici.

Il codice di buone pratiche, la cui adesione sarà solo su base volontaria – e questo già denota la sua debolezza rinunciando a obblighi vincolanti – è composto da tre capitoli, il primo dedicato alla trasparenza, il secondo al diritto d’autore, rivolti i primi due a tutti i fornitori di modelli di IA per finalità generali, mentre del terzo capitolo, intitolato sicurezza, sono destinatari solo i fornitori dei modelli più avanzati.

Si tratta di una serie organizzata e armonizzata di norme elaborate da 13 esperti indipendenti con l’ausilio di oltre 1.000 stakeholder come i fornitori di modelli, le piccole e medie imprese, gli accademici, gli esperti di sicurezza dell’IA, i titolari dei diritti e le organizzazioni della società civile per aiutare le imprese, gli esperti indipendenti, tutti affiancati dai rappresentanti degli Stati membri dell’UE e dagli osservatori europei e internazionali.

Questo è quello che è formalmente dichiarato dalla Commissione Europea quando in realtà risulta che “15 aziende statunitensi – tra cui Meta, Google, Microsoft, Apple, Amazon, OpenAI, Anthropic – hanno avuto accesso privilegiato a workshop riservati, incontrando direttamente i responsabili della redazione del testo. La società civile, invece, è stata relegata a sessioni plenarie, con possibilità minime di intervento e dinamiche che, secondo diverse testimonianze, hanno di fatto escluso un confronto paritario”.26

Nel rapporto si parla di “partecipazione Potëmkin” cioè la società civile ha sì formalmente partecipato ma senza reali strumenti per incidere nelle decisioni.

Dinah van der Geest, membro di Article 1927 ha denunciato come le domande dei partecipanti fossero filtrate, senza possibilità di interagire in tempo reale.

Alla redazione del Codice ha collaborato un consorzio di consulenti28 tutti legati alle Big Tech.

Gli obiettivi del Codice sono da un lato, aiutare l’industria che produce modelli di IA ad adeguarsi alle norme della legge sull’IA stessa e dall’altro, garantire una maggiore sicurezza e trasparenza di quei modelli immessi sul mercato nel rispetto delle buone pratiche.

Dopo che il codice sarà approvato dagli Stati membri e dalla Commissione, i fornitori di modelli di IA per finalità generali che lo firmeranno – si ripete – volontariamente, saranno in grado di dimostrare proprio attraverso tale adesione, la conformità ai correlati obblighi previsti dalla legge sull’IA.29

Questo permetterà loro di avere un onere amministrativo ridotto e, di fronte ai terzi, di dimostrare di rispettare i parametri in maniera più trasparente e certa.

Le norme saranno applicabili dall’Ufficio per l’IA della Commissione un anno dopo per i nuovi modelli e due anni dopo per quelli già esistenti.

Il codice delle buone pratiche è esplicazione e applicazione della legge sull’IA30 in quanto strumento ulteriore attraverso il quale creare affidamento nei cittadini europei in quei sistemi di IA che possono essere fonte di rischi31.

Si ricordi che lo scopo del Regolamento EU 2024/1689 “è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale (sistemi di IA) nell’Unione, in conformità dei valori dell’Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell’Unione, nonché promuovere l’innovazione. Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull’IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all’uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento”.

E nel Considerando n. 3 il Regolamento citato già sottolinea che “Nella misura in cui il presente regolamento prevede regole specifiche sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali, consistenti in limitazioni dell’uso dei sistemi di IA per l’identificazione biometrica remota a fini di attività di contrasto, dell’uso dei sistemi di IA per le valutazione dei rischi delle persone fisiche a fini di attività di contrasto e dell’uso dei sistemi di IA di categorizzazione biometrica a fini di attività di contrasto, è opportuno basare il presente regolamento, per quanto riguarda tali regole specifiche, sull’articolo 16 TFUE. Alla luce di tali regole specifiche e del ricorso all’articolo 16 TFUE, è opportuno consultare il comitato europeo per la protezione dei dati”.

Le norme della legge sull’IA sui modelli di IA per finalità generali si applicano ai fornitori che immettono tali modelli sul mercato dell’Unione, indipendentemente da dove abbiano la propria sede, nell’Unione o in un paese terzo.32

Dove il fornitore di un modello di IA per finalità generali può essere una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un modello di IA per finalità generali o che ha sviluppato un tale modello e lo immette sul mercato, a titolo oneroso o gratuito.33

Per immissione sul mercato di un modello si intende la sua prima messa a disposizione sul mercato dell’Unione34, ossia la fornitura per la distribuzione o l’uso sul mercato dell’Unione per la prima volta nel corso di un’attività commerciale, a titolo oneroso o gratuito.35

Un modello di IA per finalità generali è considerato immesso sul mercato anche se il fornitore di tale modello lo integra nel proprio sistema di IA messo a disposizione sul mercato o messo in servizio, a meno che il modello non sia a) utilizzato per processi puramente interni che non sono essenziali per fornire un prodotto o un servizio a terzi, b) i diritti delle persone fisiche non siano pregiudicati e c) il modello non sia un modello di IA per finalità generali con rischio sistemico.36

I fornitori di modelli di IA per finalità generali devono documentare le informazioni tecniche sui loro modelli al fine di fornire tali informazioni, su richiesta, all’ufficio per l’IA e alle autorità nazionali competenti37 e di metterle a disposizione dei fornitori a valle.38

Devono inoltre mettere in atto una politica per conformarsi al diritto d’autore e ai diritti connessi dell’Unione39 e redigere e mettere a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per la formazione del modello.40

Il codice di buone pratiche sull’IA per finalità generali dovrebbe fornire ai firmatari ulteriori dettagli su come garantire il rispetto di tali obblighi nelle sezioni relative alla trasparenza e al diritto d’autore, ma per ora non lo fa.

A norma della legge sull’IA, i fornitori di modelli di IA per finalità generali con rischio sistemico hanno obblighi aggiuntivi.

Devono valutare e attenuare i rischi sistemici, in particolare effettuando valutazioni dei modelli, tenendo traccia, documentando e segnalando gli incidenti gravi e garantendo un’adeguata protezione della cibersicurezza per il modello e la sua infrastruttura fisica.41

Il codice di buone pratiche sull’IA per finalità generali dovrebbe fornire ai firmatari ulteriori dettagli su come garantire il rispetto di tali obblighi nelle sezioni relative alla valutazione del rischio sistemico, all’attenuazione del rischio tecnico e all’attenuazione del rischio di governance, ma ad oggi non lo fa.

Il problema poi si pone per i modelli di AI avanzati in open source che è quello di trovare un equilibrio tra il perseguimento dei benefici e la mitigazione dei rischi.

Perché se da una parte possono effettivamente produrre notevoli benefici per la società, anche promuovendo la ricerca in materia di sicurezza dell’AI, proprio quando sono open source, le attenuazioni dei rischi sono più facilmente aggirate o rimosse.

È del 18 luglio 2025 la notizia42 pubblicata da Joel Kaplan43 su Linkedin, secondo la quale Meta non firmerà il Codice di buone pratiche dell’UE per i modelli di IA per finalità generali.

Ma non è stata l’unica società a negare il proprio consenso, ce ne sono state 44 solo nei primi 15 gg di luglio, tra queste Bosch, Siemens, Sap, Airbus e Bnp hanno inviato una lettera al Presidente della Commissione UE Ursula von der Leyen, chiedendo espressamente di fermare l’attuazione delle norme perché frenano lo sviluppo e l’implementazione di modelli di intelligenza artificiale e bloccano l’attività delle aziende che se ne occupano.

Il 3 luglio 202544 dette imprese avevano parlato di “norme poco chiare che mettono a rischio la competitività del blocco nella corsa globale all’intelligenza artificiale e le ambizioni dell’Europa stessa in materia di AI in quanto mettono a repentaglio non solo lo sviluppo di campioni europei, ma anche la capacità di tutte le industrie di utilizzare l’intelligenza artificiale alla scala richiesta dalla concorrenza globale”.

Pressioni la Commissione Europea le aveva già subite dal governo statunitense e dalle Big Tech perché quella europea è considerata la normativa più severa per lo sviluppo tecnologico.

Nel mese di aprile del 2025 è stata condotta un’inchiesta congiunta da Corporate Europe Observatory (CEO) e LobbyControl che ha evidenziato il ruolo dominante delle grandi aziende tecnologiche statunitensi e come

Meta, Google, Microsoft e altri attori chiave dell’AI globale “avrebbero esercitato un’influenza tale da indebolire in modo significativo il testo finale, minando gli sforzi regolatori europei e riducendo drasticamente le garanzie per i diritti fondamentali, la privacy e la proprietà intellettuale”.45

Big Tech ha ottenuto ampie concessioni sia nell’ambito delle discriminazioni e diritti fondamentali che nel copyright.

Mentre infatti nella seconda bozza, “la discriminazione illegale su larga scala” per quanto concerne la discriminazione e i diritti fondamentali, era considerata un rischio sistemico da mitigare obbligatoriamente, nella terza bozza, è diventata un “rischio aggiuntivo facoltativo” e l’obbligo si è trasformato in una raccomandazione.

Per quanto concerne il copyright le versioni iniziali prevedevano la verifica dell’accesso legittimo a contenuti protetti e l’obbligo di mitigare usi illeciti, quelle più recenti parlano di “ragionevoli sforzi” e scaricano l’onere della prova sugli autori.

Sostanzialmente senza trasparenza sui dataset, diventa impossibile per gli autori sapere se i propri contenuti sono stati utilizzati illegalmente.

In questo modo Bruxelles sembra orientata verso una deregolamentazione in materia per fare in modo che l’Europa sia competitiva nel settore tecnologico.

Non è un caso che nel corso dell’AI Action Summit tenutosi dal 6 all’11 febbraio 2025 a Parigi, Ursula von der Leyen, affiancata dal CEO di Google, Sundar Pichai abbia dichiarato: “Vogliamo che l’Europa sia un continente leader nell’AI. Questo significa abbracciare una vita in cui l’intelligenza artificiale è ovunque”.

Brando Benifei e Michael McNamara, copresidenti del gruppo parlamentare di lavoro sull’intelligenza artificiale, hanno definito il Codice delle Buone Pratiche “una tigre di carta” evidenziando il rischio che possa rimanere una mera dichiarazione d’intenti se non accompagnata da azioni concrete, controlli rigorosi e piena applicazione da parte di tutti i soggetti interessati.

Mentre si aspetta il Codice di Buone Pratiche – già non vincolante ma su base di adesione volontaria e comunque poco garantista del rispetto dei diritti fondamentali e della tutela del diritto d’autore – formalmente solo 40 tra governi, organizzazioni internazionali, istituzioni accademiche, società civile e settore privato, hanno sottoscritto il 2 giugno 2025 la “Hamburg declaration on responsible artificial intelligence for the Sustainable Development Goals”, ossia la prima dichiarazione globale sul ruolo dell’intelligenza artificiale in relazione agli Obiettivi di sviluppo sostenibile dell’Agenda 2030.

La “Hamburg sustainability conference 2025” è stata promossa dal Programma per lo sviluppo delle Nazioni Unite (UNDP), il Governo federale tedesco, la Michael Otto Foundation e la Città di Amburgo. 

La premessa della dichiarazione è volta a cogliere le opportunità di uno sviluppo tecnologico dell’AI che sia responsabile e inclusivo, incentrato sull’uomo, sui diritti umani, aperto, sostenibile, che preveda una partecipazione paritaria, perché senza garanzie lungo tutta la catena di valore dell’AI “potrebbe ampliare le disuguaglianze all’interno e tra i paesi e contribuire a danni diretti attraverso un uso improprio, illegale o deliberato. Può anche contribuire a violazioni dei diritti umani, alimentare la disinformazione, omogeneizzare l’espressione creativa e culturale e danneggiare l’ambiente”.

Si vuole inoltre evitare che i benefici dell’AI non rimangano concentrati su pochi privilegiati.

La Hamburg declaration ha 4 pilastri fondamentali:

– lo sviluppo dei sistemi di IA deve avvenire mediante il coinvolgimento dei gruppi marginalizzati, come le donne, i bambini, le popolazioni indigene e le persone con disabilità, perché si possano rispettare, tutelare e promuovere i diritti umani;

– l’utilizzo dell’IA deve essere allineato agli obiettivi climatici globali, riducendo il consumo di energia e l’impatto ambientale del suo ciclo di vita;

– l’IA deve essere una leva per la crescita economica inclusiva, sono necessari allora investimenti nelle infrastrutture digitali e percorsi di formazione e upskilling per i cittadini e i lavoratori;

– è vietato utilizzare l’IA come strumento di diffusione di campagne di disinformazione. Deve, invece, essere un mezzo per rilanciare la cooperazione, la fiducia e la coesione sociale;

– i sistemi di IA e i dataset dovrebbero essere trattati come beni pubblici digitali globali per accelerare l’innovazione in alcune aree critiche, come il contrasto al cambiamento climatico e la salute.

Se questo è lo scenario a livello europeo, in Italia il 20 marzo 2025 è stato approvato dal Senato il DDL italiano n.1146/2025 ossia il “Disegno di legge delega sull’intelligenza artificiale” che disciplina l’utilizzo dell’AI in tutti i settori della nostra vita, tra cui anche per la giustizia con specifiche disposizioni, in particolare quelle relative ai professionisti (magistrati e avvocati), alla pubblica amministrazione e all’attività giudiziaria.

Il linea di principio ha relegato l’IA per attività solo strumentali e di mero supporto all’attività professionale, privilegiando il lavoro intellettuale umano e specificando al cliente che sono stati utilizzati strumenti di IA.

Per i professionisti l’obbligo che era previsto in alcune linee guida già adottate da diversi Ordini professionali.46

Questo perché si vuole che l’attività giudiziaria – almeno in teoria – sia essere sempre riservata al magistrato sia per quanto concerne l’ interpretazione, la valutazione delle prove e infine la decisione.

Il Ministero della Giustizia può disporre l’utilizzo di sistemi di intelligenza artificiale per organizzare i servizi, semplificare il lavoro giudiziario e per le attività amministrative accessorie oltre che autorizzarne la sperimentazione e l’impiego negli uffici giudiziari.

È formalmente47 una normativa conservativa, più attenta ai rischi e ai problemi etici indotti dall’IA, che a cercare di governare e di implementare il fenomeno, con un crescente divario tra l’Italia e l’Europa in genere e gli Stati Uniti e la Cina.

Ma quale il limite tra l’attività strumentale e quella di supporto? Cosa è compreso nell’attività defensionale e cosa ne resta escluso?

Dove inserire le consulenze legali on line che stanno spopolando soprattutto ad opera di colleghi cancellatisi dall’Albo per la forte crisi che ha colpito la classe forense? Come garantire la trasparenza e quindi la certezza del risultato se non si conosce la provenienza dei dati utilizzati?

All’Italia, anche in questo settore, pare sia mancato il coraggio di abbandonare vecchie logiche, perdendo così l’occasione di disciplinare un ambito che consentirebbe di eliminare il lavoro umano a basso valore aggiunto, per trasferire le energie e l’attenzione verso mansioni e funzioni che siano più gratificanti e appaganti umanamente ed economicamente.


1 Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale) (Testo rilevante ai fini del SEE).

2 v. articolo 3, paragrafo 63, della legge sull’IA

3 Considerando 98 della legge sull’IA.

4 Il Centro comune di ricerca (JRC) Joint Research Centre si inserisce nel secondo pilastro di Horizon Europe e fornisce prove scientifiche e supporto tecnico alle politiche dell’Unione, è un sostegno basato sull’evidenza scientifica durante l’intero processo politico, in piena indipendenza da interessi nazionali, commerciali o privati.

5 cfr. articolo 3, punto 65, della legge sull’IA.

6 cfr. art. 51 paragrafo 1, della legge sull’IA.

7 cfr. considerando 110 della legge sull’IA.

8 cfr. articolo 51, paragrafo 1, lettera a), e paragrafo 2, della legge sull’IA.

9 cfr. articolo 51, paragrafo 3, della legge sull’IA.

10 cfr. articolo 51, paragrafo 1, lettera b), e allegato XIII della legge sull’IA.

11 Si parla di rischio e non di pericolo, dove il pericolo è qualcosa che potenzialmente può arrecare un danno mentre il rischio è la probabilità che un pericolo arrechi un danno (definizione dell’Autorità Europea per la sicurezza Alimentare – Efsa).

Il Testo Unico per la sicurezza (D.Lgs 81/08) differenzia in maniera sostanziale i termini di rischio e pericolo.

L’art. 2, comma 1, lett. r) e s) del D.Lgs 81/08 infatti definisce:

pericolo: la proprietà o la qualità intrinseca di un determinato fattore avente il potenziale di causare danni;

rischio: la probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione.

12 Sono tutti quei sistemi che portano a un controllo di massa.

Questa categoria comprende anche un sistema di social score, vale a dire un sistema in cui i cittadini sulla base dei loro comportamenti acquistano o perdono punti che consentono loro di acquisire o meno privilegi come ad esempio l’accesso ai servizi pubblici o ad altre risorse pubbliche.

Il governo cinese lo starebbe mettendo a punto utilizzando algoritmi di IA per classificare imprese e cittadini in base ai loro comportamenti. Vietato è l’uso di sistemi di IA per manipolare persone con disabilità, anziani e minori o, ancora, per categorizzare le persone per esempio per il loro orientamento sessuale. (cfr. Luca Bertuzzi, esperto di politiche digitali dell’Unione Europea nell’intervista di Anita Rubini del 07.05.25 “Europa e Intelligenza artificiale: regole, sfide e visioni a confronto” su BNews dell’Università di Milano Bicocca.)

13 Sono ad esempio i sistemi di identificazione biometrica e riconoscimento facciale, sistemi di valutazione del credito e scoring, chatbot medici, sistemi di guida autonoma.

Si pensi al riconoscimento facciale utilizzato per la sorveglianza in tempo reale in luoghi pubblici che consente attraverso le telecamere con riconoscimento facciale, a ogni passaggio in metro, negli aeroporti, nelle piazze principali di confrontare i dati ottenuti con quelli conservati in un data base e individuare rapidamente i delinquenti così da consentire un intervento rapido da parte delle Forze dell’Ordine.

L’uso di questi sistemi è consentito solo nei termini strettamente previsti dalle norme.

Il Parlamento Europeo a tutela dei cittadini europei si è imposto contro l’uso sollecitato dai governi di Francia, Spagna e Italia di controlli biometrici generalizzati per risolvere problemi di criminalità organizzata, perché l’introduzione avrebbe portato a un controllo generalizzato e quindi non ammissibile.

Così come il Parlamento Europeo è intervenuto con regole di trasparenza e gestione del rischio per tutelare i cittadini europei, lì dove le start up europee per ostacolare il predominio statunitense nel campo di sviluppo tecnologico, avevano spinto i rispettivi Stati a evitare di regolamentare in modo stringente i Large Language Model che sottendono sistemi come ChatGPT.

14 Un esempio è una chatbot che risponde automaticamente a domande come quella di apertura e chiusura di un’attività, disponibilità di prodotti, chat che non ha accesso ai dati sensibili e personali dei clienti e quindi non può generare problemi legati alla tutela della privacy e dei dati sensibili.

15 Per esempio una calcolatrice basata sull’intelligenza artificiale per smartphone o un’app che organizza una lista della spesa o di un viaggio.

16 cfr. considerando n. 27 dell’AI Act

17 L’etica del computer è un ramo della filosofia che tratta di come i professionisti informatici debbano operare scelte che attengono alla condotta sociale e professionale. I fondamenti concettuali dell’etica del computer sono oggetto di studio della morale dell’informazione, una branca dell’etica filosofica istituita da Luciano Floridi.

18 Deborah Johnson, la fondatrice della computer ethics, parla di “socio-tecnical systems” introducendo il concetto di co-shaping (la tecnologia e la società si plasmano a vicenda): “… la tecnologia non è soltanto artefatti, ma artefatti incorporati in pratiche sociali e infusi con significati sociali”.(v. Computer Ethics (Prentice-Hall Software Series) by Deborah G. Johnson

19 Johnson, 1985; Gotterbarn e al., 1997

20 È l’High-Level Expert Group on Artificial Intelligence un gruppo di cinquantadue esperti dal mondo delle imprese, della ricerca, dell’università e della pubblica amministrazione, che dal 2018 aiuta nell’apertura di un dialogo con tutti gli stakeholder e propone analisi e indicazioni per le politiche europee sull’IA.

In particolare ha elaborato le linee guida sugli aspetti etici, sociali e legali relativi alla IA.

Ambito di interesse è: il futuro del lavoro, l’equità, la trasparenza, la responsabilità delle azioni, la democrazia, la protezione dei dati personali, la dignità, la non-discriminazione e la protezione dei consumatori.

21 v.–EIRMA (2018), Task Force on Responsible Innovation, www.eirma.org.

– Forbes (2018), The World’s Biggest Public Companies, forbes.com, Agosto 2018.

– Gotterbarn D., Miller K., Rogerson S. (1997), Software engineering code of ethics, Communications of the ACM, Volume 40 Issue 11, Nov. 1997, Pages 110-118.

– Johnson D.G. (1985), Computer Ethics, 4th ed., Prentice-Hall, 2009.

– O’Reilly T. (2018), Do More, Do Things That Were Previously Impossible! SxSW Conference, 9 March 2018, Reno, Nevada.

– Pontefract D. (2018), We need Chief Ethics Officers More Than Ever, Forbes, May 16, 2018.

– Taddeo M., Floridi L. (2018), How AI can be a force for good. An ethical framework will help to harness the potential of AI while keeping humans in control, Science, 24 August 2018.

– Turing, A.M. (1950), Computing machinery and intelligence, Mind, 59, 433-460.

– Weizenbaum J. (1976), Computer Power and Human Reason: From Judgment To Calculation, W.H.Freeman.

22 cfr. considerando n. 27 della legge sull’AI

23 È ad esempio Gpt-4 di OpenAI alla base di ChatGpt e Gemini di Google.

24 GPAI, acronimo inglese per “Code of Practice on General Purpose AI”

25 Sul sito digital-strategy.ec.eutopa.eu della Commissione Europea recante “Elaborazione di un codice di buone pratiche in materia di IA per finalità generali”, 1 aprile 2025.

26 Sulla rivista Key4Biz, AI, “Come le Big Tech indeboliscono il codice di buone pratiche europeo. L’inchiesta”, di Flavio Fabbri, 30 Aprile 2025.

27 È responsabile del Programma Digitale, ARTICOLO 19

Dinah van der Geest lavora all’intersezione tra tecnologia e diritti umani, con particolare attenzione ai meccanismi di governance multilaterali e multistakeholder. Si batte per l’adozione di politiche e standard tecnici rispettosi dei diritti nelle infrastrutture di Internet.

28 tra cui Wavestone e CEPS.

29 Sul sito digital-strategy.ec.eutopa.eu della Commissione Europea recante “Il codice di buone pratiche dell’IA per finalità generali è ora disponibile”, 10 luglio 2025.

30 Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale) (Testo rilevante ai fini del SEE)

31 Cfr. 5° Considerando del Reg. UE 2024/1689: “L’IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell’Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico”.

32 v. articolo 2, paragrafo 1, lettera a), della legge sull’IA.

33 v. articolo 3, paragrafo 3, della legge sull’IA.

34 v. articolo 3, paragrafo 9, della legge sull’IA.

35 v. articolo 3, paragrafo 10, della legge sull’IA.

36 v. considerando 97 della legge sull’IA.

37 v. articolo 53, paragrafo 1, lettera a), della legge sull’IA.

38 v. articolo 53, paragrafo 1, lettera b), della legge sull’IA.

39 v. articolo 53, paragrafo 1, lettera c), della legge sull’IA.

40 v. articolo 53, paragrafo 1, lettera d), della legge sull’IA.

41 v. articolo 55 della legge sull’IA.

42 v. Redazione ANSA del 18.07.25 ore 15.13 “Meta non firma il codice Ue sull’IA, “troppe le incertezze giuridiche”. Kaplan: “L’Europa sta imboccando la strada sbagliata”.

43 Joel Kaplan è Chief Global Affairs Officier di Meta: “Questo Codice introduce una sere di incertezze giuridiche per gli sviluppatori di modelli, nonché misure che vanno ben oltre l’ambito di applicazione della legge sull’AI. L’Europa sta imboccando la strada sbagliata.”

44 v. Redazione ANSA del 03 luglio 2025 “Oltre 40 imprese europee chiedono alla Ue di bloccare l’AI Act.”

45 Sulla rivista Key4Biz, AI, “Come le Big Tech indeboliscono il codice di buone pratiche europeo. L’inchiesta”, di Flavio Fabbri, 30 Aprile 2025.

46 v. Ordine degli Avvocati di Milano, Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense punto 3

47 Si rimanda all’articolo di Paola Calvano, pubblicato in data 8 luglio 2025, sulla rivista mensile Aequitas Magazine (ISSN 3035-0271 e 3035-4803), “Verso una giustizia predittiva e prescrittiva già dal 2021”, Volume n. 7/2025, https://www.aequitasmagazine.it/ark:/56778/7957.

*** This work is peer-reviewed ***
Copyright © Author(s)
Licensed under Creative Commons Attribution-NonCommercial 4.0 International

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *