AI Act: L’Europa Getta le Basi con un Codice di Condotta per l’Intelligenza Artificiale

0
232

In attesa della piena applicazione dell’AI Act, diversi attori, sia istituzionali che non, stanno lavorando alla redazione di documenti previsti dal regolamento stesso, al fine di fornire indicazioni utili per facilitare la comprensione e il rispetto della normativa.

L’AI Act fa riferimento a vari documenti destinati a illustrare in dettaglio le disposizioni del regolamento.

Tra questi, si evidenziano le orientamenti forniti dalla Commissione, che definiranno l’attuazione pratica dell’articolo 6 dell’AI Act, riguardante i sistemi ad alto rischio, comprese liste esaustive di esempi relativi a casi d’uso di sistemi di intelligenza artificiale (IA) ad alto e non alto rischio.

In questo contesto, in conformità con quanto stabilito dall’articolo 56 dell’AI Act, è stata pubblicata la prima bozza del “Codice di buone pratiche” relativo ai modelli di IA per finalità generali e ai modelli di IA per finalità generali con rischio sistemico (d’ora in poi “Codice”). Questo documento, redatto da un gruppo di esperti, ha come obiettivo quello di fornire indicazioni sulla conformità agli obblighi definiti negli articoli 53 e 55 dell’AI Act.

Il Codice di buone pratiche

Come indicato dai redattori, il Codice è stato elaborato tenendo conto non solo dell’AI Act, ma anche delle best practices esistenti e dei documenti internazionali, come il Codice di Condotta del G7 e la Dichiarazione di Bletchley.

La connessione diretta con l’AI Act è evidente anche nella dichiarazione del preambolo del Codice, laddove si afferma che, salvo indicazioni contrarie nel contesto e nella definizione del Codice, i termini utilizzati si riferiscono a quelli identici presenti nell’AI Act.

Inoltre, conformemente a quanto stabilito dall’articolo 56, paragrafo 4, dell’AI Act, il Codice definisce obiettivi specifici e include misure, che comprendono anche indicatori di prestazione volti a garantire il raggiungimento di tali obiettivi.

I quattro gruppi di lavoro coinvolti nella realizzazione del Codice

La bozza del Codice è stata elaborata grazie al contributo di quattro gruppi di lavoro che si sono concentrati su: regole relative alla trasparenza e al copyright; identificazione e valutazione del rischio per rischio sistemico; mitigazione del rischio tecnico per rischio sistemico; mitigazione del rischio di governance per rischio sistemico.

I gruppi di lavoro hanno operato seguendo i seguenti principi:

I. Allineamento con i Principi e i Valori dell’UE; per garantire il rispetto dei valori generali dell’Unione, come sancito dal diritto dell’UE, inclusa la Carta dei Diritti Fondamentali, il Trattato sull’Unione Europea (TUE) e il Trattato sul Funzionamento dell’Unione Europea (TFUE).

II. Allineamento con l’AI Act e gli Approcci Internazionali; per contribuire a un’applicazione corretta dell’AI Act, in conformità con quanto riportato nell’articolo 56 dello stesso.

III. Proporzionalità ai Rischi; per garantire che misure e indicatori di prestazione siano proporzionati ai rischi e adeguati a raggiungere l’obiettivo desiderato senza imporre eccessive difficoltà.

IV. A prova di futuro; per assicurare un equilibrio tra requisiti specifici e flessibilità, permettendo al documento di adattarsi all’evoluzione tecnologica.

V. Proporzionalità rispetto alla dimensione del fornitore di modelli di IA per finalità generali; per garantire che le misure siano adeguate alla dimensione del fornitore di modelli di IA.

VI. Supporto e crescita dell’ecosistema di sicurezza dell’IA; per promuovere una maggiore condivisione tra le parti interessate e la cooperazione, in conformità con l’articolo 56 e il Considerando 116 dell’AI Act.

Possibili benefici e aspettative

La bozza del Codice si inserisce in un contesto in cui i vari attori stanno lavorando per essere pronti quando le disposizioni dell’AI Act diventeranno operative. Nel caso specifico riguardante i modelli di IA per finalità generali e quelli con rischio sistemico, è possibile che il numero di soggetti interessati dal Codice sia limitato, come riconosciuto dallo stesso gruppo di esperti. Tuttavia, il documento avrà un ruolo fondamentale nel guidare lo sviluppo e l’implementazione futura di modelli di IA per finalità generali affidabili e sicuri.

Il Codice, pur essendo una prima bozza di alto livello con diverse questioni ancora aperte, rappresenta un documento autoritativo da considerare quando si affrontano temi relativi ai modelli di IA per finalità generali.

Il gruppo di esperti comunica che i prossimi passi includeranno discussioni e sessioni di scrittura fino ad aprile 2025. In linea con l’articolo 56, paragrafo 9, dell’AI Act, il Codice sarà completato entro il 2 maggio 2025.