Il 28 ottobre 2025, il Garante europeo della protezione dei dati (EDPS) ha pubblicato la seconda versione delle “Orientations for ensuring data protection compliance when using Generative AI systems”. Questo documento fornisce indicazioni operative volte a tradurre in pratiche concrete le normative europee sulla protezione dei dati personali in relazione all’uso di sistemi di intelligenza artificiale generativa.
Sebbene il documento sia formalmente indirizzato alle istituzioni e agli organismi dell’Unione che applicano il Regolamento (UE) 2018/1725, simile al GDPR, le indicazioni contenute possono essere applicate anche alle pubbliche amministrazioni nazionali e ai soggetti privati che devono rispettare il GDPR.
La guida è strutturata in forma di domande e risposte pratiche, accompagnate da casi d’uso. Il presente articolo segue la medesima impostazione, sintetizzando i temi trattati e applicandoli in conformità al GDPR.
Principi generali per l’uso conforme dell’AI generativa
Il documento afferma la piena liceità dell’uso dell’AI generativa nel contesto della pubblica amministrazione, evidenziando la necessità di rispettare specifici requisiti: definire lo scopo e la base giuridica del trattamento (artt. 5 e 6 GDPR); determinare e documentare ruoli e responsabilità; mantenere aggiornato il registro delle attività di trattamento (art. 30 GDPR); condurre valutazioni dei rischi per l’AI, effettuando una DPIA se necessario (art. 35 GDPR); attuare i principi chiave quali trasparenza, minimizzazione, limitazione della conservazione e sicurezza; garantire l’esercizio dei diritti degli interessati (Capo III GDPR); assicurare l’accountability (art. 5(2) GDPR).
A partire da questi punti, il documento risponde a diverse domande.
Come determinare ruoli e responsabilità ex GDPR
Una delle principali difficoltà riguarda l’identificazione dei ruoli. L’AI Act utilizza termini come provider, developer, deployer, che non corrispondono direttamente ai concetti di titolare, responsabile o contitolare stabiliti dal GDPR. La distinzione fondamentale è che “è titolare chi decide perché e come vengono trattati i dati personali”. Pertanto, è essenziale stabilire i ruoli privacy indipendentemente dai termini utilizzati nell’AI Act, considerando inoltre che tali ruoli possono variare nel corso del ciclo di vita del sistema.
Un esempio utile descritto nel documento riguarda due istituzioni, A e B, che collaborano per sviluppare uno strumento di gestione delle risorse umane basato su AI generativa. Inizialmente, A funge da titolare, ma quando B implementa l’outil utilizzando i propri dati, diventa anch’essa titolare di un trattamento distinto. Se A e B progettano insieme il sistema, si configura una contitolarità, necessitando di accordi formali e responsabilità condivise.
Come verificare se l’uso dell’AI generativa comporta trattamento di dati personali
Un ulteriore aspetto critico è determinare la presenza di dati personali all’interno di un sistema di AI generativa. Peraltro, non è possibile affermare che i dati siano sempre anonimi; è necessario effettuare un’analisi concreta. Anche se i dati non sembrano riconducibili a individui identificati, il modello potrebbe comunque consentire una reidentificazione. L’EDPS sottolinea quindi la complessità dell’anonimizzazione, in particolare quando si utilizzano dataset ottenuti tramite web scraping.
Qual è il ruolo del DPO nell’implementazione dell’AI
Il Data Protection Officer (artt. 37-39 GDPR) deve essere coinvolto fin dalle fasi iniziali dello sviluppo e del deployment dell’AI generativa, offrendo consulenza indipendente. È necessario favorire una comunicazione costante tra il DPO, il Servizio Legale, l’IT e il CISO.
Si raccomanda la costituzione di una task force per l’AI che includa il DPO, la preparazione di piani d’azione, attività formative su più livelli organizzativi e la predisposizione di linee guida interne.
Quando effettuare la valutazione d’impatto (DPIA)
Secondo l’EDPS, l’uso di tecnologie innovative come l’AI generativa rappresenta di per sé un fattore ad alto rischio per i diritti e le libertà degli individui. Qualora il sistema sia classificato come AI ad alto rischio, è obbligatoria la DPIA. Pertanto, è da considerarsi necessaria in ogni caso.
Base giuridica del trattamento per lo sviluppo dell’AI
Il tema della base giuridica presenta molteplici sfide. Per gli enti pubblici, il concetto di legittimo interesse, applicabile al settore privato, non trova generalmente corrispondenza pubblico. Queste istituzioni possono basarsi sull’interesse pubblico (art. 6 lett. e) o sull’obbligo legale (art. 6 lett. c). Sebbene l’EDPS non escluda il consenso, evidenzia la sua fragilità nell’ambito dell’AI generativa, sottolineando la difficoltà pratica di raccoglierlo su larga scala.
Limitazione delle finalità nel ciclo di vita dell’AI
Anche la definizione delle finalità richiede attenta considerazione. Ogni fase del ciclo di vita dell’AI generativa (addestramento, fine-tuning, deployment) può avere obiettivi distinti. È dunque fondamentale definire chiaramente queste finalità e valutare la compatibilità con quanto previsto dall’art. 6 par. 4 GDPR.
Minimizzazione dei dati e uso di dati sintetici
Il documento sottolinea l’importanza di considerare l’utilizzo di dati sintetici e dati anonimi per raggiungere le finalità senza ricorrere a dati personali. Inoltre, si raccomanda di attuare procedure di data governance, documentando dataset e modelli e verificando la minimizzazione nei sistemi di terze parti.
Il principio di accuratezza nell’AI generativa
Il principio di accuratezza (art. 5 par. 1 lett. d GDPR) è fondamentale, poiché impone la necessità di dati esatti e aggiornati. I modelli possono generare output contenenti dati inesatti. È cruciale controllare le uscite e utilizzare metriche di accuratezza statistiche quando applicabili.
Trasparenza e informativa agli interessati
In accordo agli artt. 13 e 14 GDPR, è necessario fornire agli interessati informazioni dettagliate sul funzionamento degli algoritmi, sui dataset utilizzati e sulle eventuali decisioni automatizzate o di profilazione. Ciò implica anche la predisposizione di informative privacy facilmente accessibili.
Decisioni automatizzate e diritti degli interessati
Il tema delle decisioni automatizzate richiede attenzioni particolari. Anche se non tutte le applicazioni di AI generativa portano a decisioni automatiche, un’influenza significativa sul processo decisionale finale richiede l’attivazione dei diritti stabiliti dall’art. 22 GDPR.
Equità e mitigazione dei bias algoritmici
I bias rappresentano una preoccupazione reale, in quanto l’AI tende a rafforzare e/o generare pregiudizi presenti nei dati. Riconoscere e controllare queste distorsioni è essenziale per la tutela dei diritti fondamentali, soprattutto in ambiti sensibili come la sanità o le risorse umane.
Esercizio dei diritti individuali nell’AI generativa
La questione dell’esercizio dei diritti degli interessati illustra le difficoltà inerenti all’applicazione pratica dei principi GDPR in un contesto di AI. L’EDPS identifica sfide significative quali l’identificazione dell’interessato e la gestione delle richieste di cancellazione o rettifica dai dataset di training.
Misure di sicurezza specifiche per l’AI generativa
Infine, l’utilizzo dell’AI generativa può amplificare o creare nuovi rischi. Le misure essenziali suggerite dall’EDPS includono: l’integrazione di controlli specifici per le vulnerabilità, l’uso di dataset affidabili, la formazione del personale sui rischi associati all’AI e il monitoraggio continuo delle valutazioni del rischio.
Valutazioni conclusive e applicabilità delle norme
Le regole dell’AI ACT per i modelli di AI ad utilizzo generale, inclusa l’AI generativa, sono in vigore dal 2 agosto 2025. Sebbene sussistano incertezze riguardo alle sanzioni, una non corretta implementazione potrebbe comportare richieste di risarcimento danni. È quindi fondamentale considerare con attenzione le indicazioni fornite in questo documento.



