Modelli AI: Rischio sistemico o opportunità? Cosa deve fare il fornitore?

l'articolo appartiene alla categoria:

pubblicato il:

 

Il sistema dell’AI Act prevede l’entrata in vigore per fasi. A partire dal 2 agosto 2025, entreranno in vigore gli obblighi relativi ai sistemi di intelligenza artificiale a scopo generale. La Commissione ha recentemente pubblicato le “Linee guida sull’ambito delle obbligazioni per i modelli di IA a scopo generale stabilite dal Regolamento (UE) 2024/1689 (Legge sull’IA)” a tal proposito.

Ai sensi dell’Articolo 96 della Legge sull’IA, è previsto che la Commissione sviluppi linee guida per l’attuazione pratica dell’AI Act, mirando a definire le obbligazioni per i fornitori di modelli di IA a scopo generale, in vista della loro imminente applicazione.

I modelli AI a scopo generale per AI Act

I fornitori di modelli di IA a scopo generale ricoprono un ruolo e una responsabilità cruciali lungo la catena del valore dell’IA. È essenziale che anche i fornitori a valle comprendano adeguatamente i modelli e le loro capacità per integrarli nei propri prodotti e rispettare gli obblighi previsti dall’AI Act.

La Commissione possiede la competenza esclusiva di garantire la conformità dei fornitori di modelli di IA a scopo generale, sia con che senza rischio sistemico, nonché di stabilire le regole per il confronto tra Commissione e produttori.

Secondo l’AI Act, un modello di intelligenza artificiale a scopo generale è definito come tale se addestrato con un grande volume di dati mediante auto-supervisione su larga scala, mostrando una significativa versatilità e capacitando l’esecuzione di una vasta gamma di compiti. Non sono inclusi nella definizione modelli utilizzati per attività di ricerca, sviluppo o prototipazione prima della commercializzazione.

Tale definizione elenca i fattori generali per qualificare un modello come uno di intelligenza artificiale a scopo generale, senza stabilire criteri specifici per la valutazione da parte dei potenziali fornitori.

È pertanto cruciale fornire “regole” semplici da verificare, affinché i soggetti possano valutare se siano fornitori di modelli di intelligenza artificiale a scopo generale.

Data la vasta gamma di capacità e casi d’uso dei modelli di IA, non è praticabile fornire un elenco dettagliato delle abilità necessarie. L’approccio della Commissione è quindi quello di usare il volume delle risorse computazionali impiegate nell’addestramento del modello come criterio per la classificazione di un modello come modello di intelligenza artificiale di uso generale.

I modelli a scopo generale con rischio sistemico

È necessario individuare i criteri per la classificazione dei modelli di intelligenza artificiale a scopo generale con rischio sistemico, ovvero quei modelli che possono produrre danni su larga scala spingendo i limiti dello stato dell’arte.

Secondo l’Articolo 51 dell’AI Act, un modello di intelligenza artificiale a scopo generale è classificato come un modello con rischio sistemico se soddisfa una delle seguenti condizioni:

  • possiede capacità ad alto impatto, equivalenti o superiori a quelle registrate nei modelli più avanzati;
  • è stato classificato dalla Commissione come avente capacità o un impatto equivalente.

Cosa deve fare il fornitore

Quando un modello di intelligenza artificiale a scopo generale soddisfa un requisito che suggerisce la presenza di capacità ad alto impatto, il fornitore deve effettuare una notifica alla Commissione entro due settimane dall’accertamento del requisito, conformemente all’Articolo 52 dell’AI Act. La notifica deve contenere informazioni utili per le verifiche della Commissione.

Possono insorgere, in assenza di dichiarazione ufficiale, situazioni in cui la Commissione, avvisata dai propri advisor scientifici, decida di esaminare un modello per verificarne la categorizzazione come a scopo generale con rischio sistemico.

La Commissione valuterà scientificamente il materiale fornito nella notifica o su richiesta per determinare la classificazione del modello.

È anche possibile, durante la notificazione o su richiesta, che il fornitore presenti argomenti per dimostrare che, sebbene soddisfi tecnicamente il requisito, il modello non presenta rischi sistemici a causa delle sue specifiche caratteristiche.

Nel motivare tale eccezione, i fornitori devono fornire informazioni contestuali sulle capacità attuali o previste del modello, inclusi dati provenienti da benchmark. Ulteriori dettagli sulla struttura del modello, numero di parametri, dimensione del training set, tecniche di elaborazione e addestramento possono influire sulla valutazione.

La Commissione dovrà esaminare le argomentazioni presentate. In caso di rifiuto della richiesta, i fornitori hanno diritto a essere ascoltati prima dell’emissione finale della decisione e possono accedere al proprio dossier, rispettando la necessaria riservatezza. La decisione finale della Commissione includerà le motivazioni per l’accettazione o il rifiuto delle argomentazioni.

Poiché le capacità ad alto impatto sono per definizione “superiori a quelle registrate nei modelli più avanzati”, il riferimento per la classificazione di un modello potrebbe evolvere nel tempo, in relazione ai progressi delle capacità e ai mutamenti dei rischi.

I fornitori di modelli di IA di uso generale designati dalla Commissione come aventi rischio sistemico possono, trascorsi sei mesi dalla classificazione, richiedere una revisione motivata. Questa richiesta deve fornire evidenze oggettive e dettagliate per giustificare la rimozione della classificazione di rischio. Qualora la Commissione mantenga la designazione, i fornitori hanno la facoltà di richiedere una nuova revisione trascorsi ulteriori sei mesi.

In tutte queste valutazioni, la Commissione si avvale di un panel scientifico e dell’Agenzia per l’Intelligenza Artificiale costituita nell’Unione per garantire una preparazione adeguata e un continuo aggiornamento in risposta alle evoluzioni nel campo dell’IA.

Condividi sui social:

Articoli popolari

Altro nella categoria
Related

Potenziare le valutazioni dei dirigenti scolastici per un’istruzione di qualità superiore!

Scuola, ANDIS: urgente un confronto per migliorare la valutazione...

Collaborazione Strategica: Protocollo d’Intesa MIM-MC

Il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, insieme...

È possibile usare il minor prezzo nelle gare per lavori oltre soglia?

  È possibile applicare il criterio del minor prezzo per...

Scopri le Opportunità Part-Time con Edscuola: Lavora e Impara!

Il personale che intende richiedere la trasformazione del rapporto...