Il tavolo di lavoro annunciato dalla Commissione Europea e dall’ufficio per l’Intelligenza Artificiale di Bruxelles il 30 settembre 2024, con il coinvolgimento di oltre mille esperti, non sta raggiungendo i risultati sperati.
L’ultima bozza, la terza, pubblicata l’11 marzo, sembra aver aggravato le problematiche già evidenti nelle versioni precedenti. Il codice di buone pratiche (CoP) è previsto per l’approvazione nel maggio 2025.
Dopo la diffusione della bozza, le principali associazioni europee dei settori creativi hanno espresso forti critiche, sottolineando come l’obiettivo fondamentale dell’AI Act sia fornire ad autori, artisti e altri titolari di diritti gli strumenti necessari per esercitare e tutelare i propri diritti. Inoltre, i fornitori di Intelligenza Artificiale a Scopo Generale (GPAI) sono tenuti ad adottare misure conformi al diritto d’autore dell’Unione Europea e a fornire un riepilogo dettagliato dei contenuti utilizzati per l’addestramento.
Le preoccupazioni sul codice di condotta e il suo allontanamento dagli obiettivi dell’AI Act
Il legislatore europeo ha identificato l’intelligenza artificiale come uno strumento essenziale per la promozione di un ambiente favorevole allo sviluppo di tale tecnologia in Europa, mirando a proteggere i settori creativi dell’UE, fondamentali per il suo panorama culturale ed economico.
Secondo una coalizione di titolari di diritti, “la terza bozza del Codice di condotta GPAI rappresenta un ulteriore allontanamento dall’obiettivo prefissato. Essa genera incertezza giuridica, interpreta erroneamente il diritto d’autore dell’UE e indebolisce gli obblighi stabiliti dallo stesso AI Act. Invece di fornire un quadro solido per la conformità, il testo fissa standard così bassi da non garantire alcun supporto significativo agli autori e artisti per esercitare o far valere i propri diritti. Inoltre, non assicura nemmeno che i fornitori di GPAI rispettino il diritto d’autore dell’Unione Europea o l’AI Act”.
Criticità del codice di condotta Ue per l’IA
Si evidenziano, di seguito, i punti critici dell’ultima versione del documento.
Indebolimento della conformità dei set di dati di terze parti (Misura 2.4)
I fornitori di IA possono utilizzare contenuti di terze parti solo se hanno ottenuto l’autorizzazione dal titolare dei diritti o qualora si applichi un’eccezione. L’uso di set di dati di terze parti non esime i fornitori di IA da responsabilità per usi non autorizzati di materiali protetti da copyright.
La bozza attuale cambia il focus, passando dall’obbligo di effettuare un’adeguata due diligence sui set di dati di terze parti verso un approccio che richiede semplicemente “sforzi ragionevoli”, che comprendono esclusivamente la verifica del sito web del fornitore di dati in questione.
Questa modifica rappresenta un significativo declassamento che elimina ogni obbligo consistente di due diligence, generando una falsa impressione di conformità con le normative dell’UE sul copyright e l’AI Act.
Indebolimento del requisito di accesso legale (Misura 2.2)
La terza bozza riduce la severità dei requisiti di accesso legale collegati alle eccezioni per l’uso dei dati a scopi di data mining (TDM) nel diritto dell’UE.
Si propone che i fornitori di IA possano essere considerati conformi semplicemente aderendo alle misure di protezione tecnologica e compiendo “sforzi ragionevoli” per escludere siti di pirateria, probabilmente insufficienti rispetto ai requisiti di accesso legale in vigore.
Inoltre, questa approccio non tiene conto del funzionamento reale dei siti di pirateria e del contenuto in violazione dei diritti d’autore.
Descrizione insufficiente delle misure richieste per rispettare le riserve sui diritti (Misura 2.3)
La bozza continua a trascurare il diritto dei titolari di definire i modi attraverso cui intendono mantenere i propri diritti e non fornisce indicazioni sufficientemente chiare su come i fornitori di IA debbano adempiere al loro obbligo di rispettare tali riserve.
Inoltre, viene proposta una soglia eccessivamente alta per le riserve sui diritti, lasciando poco spazio per le pratiche specifiche dei vari settori.
Mancanza di trasparenza in merito alla conformità alla riserva dei diritti (Misura 2.3)
La bozza precedente richiedeva un certo livello di trasparenza riguardo alla conformità dei fornitori di IA con i meccanismi di opt-out. Tuttavia, questa richiesta è stata completamente rimossa dalla terza bozza, il che implica che le aziende di IA non saranno più obbligate a dichiarare come gestiscano le richieste di opt-out.
Processo di reclamo inadeguato (Misura 2.6)La misura per i fornitori di IA di introdurre un processo di reclamo per violazione del copyright richiede solo l’implementazione di un meccanismo per presentare i reclami, senza specificare le misure che dovrebbero essere adottate per risolverli.
Le reazioni politiche al codice di condotta Ue per l’IA e le sfide future
Molti parlamentari europei, che hanno avuto un ruolo cruciale nella promulgazione del primo regolamento mondiale sull’intelligenza artificiale generativa, hanno criticato aspramente la bozza del codice. In una lettera al Commissario europeo al digitale Henna Virkkunen, hanno espresso preoccupazione circa alcune disposizioni che distorcono le intenzioni originarie del legislatore, definendo il testo proposto “pericoloso, antidemocratico e fonte di incertezze legali”.
Il timore è che, se i fornitori dei modelli di intelligenza artificiale più sofisticati adottassero posizioni estremiste, ciò potrebbe compromettere la fiducia e l’affidabilità dei modelli stessi, con conseguenze profonde per l’economia e la democrazia in Europa.
In questo contesto, la tensione è palpabile anche poiché le aziende tecnologiche sono in una fase offensiva non solo in Europa, ma anche negli Stati Uniti, dove hanno richiesto un ammorbidimento delle normative sul copyright proprio per competere meglio con la concorrenza cinese, avvalendosi anche del supporto dell’amministrazione americana.





