
Il 18 dicembre scorso l’#EDPB, su richiesta dell’autorità garante irlandese (DPA), ha rilasciato un parere, l’Opinion 28/2024 circa l’uso di dati personali nello sviluppo e diffusione di modelli di IA.
Considerato l’oggetto (tecnologie in rapida evoluzione) e la portata della richiesta (l’impatto di quelle tecnologie sulla società, il fatto che sia una questione di portata generale, che produce effetti in più di uno Stato membro) l’EDPB ha coinvolto le parti interessate, compreso l'Ufficio dell'UE per l'IA, per raccoglierne i contributi, prima di rilasciare il parere (lo trovate qui, nell’originale inglese https://www.edpb.europa.eu/system/files/2024-12/edpb_opinion_202428_ai-models_en.pdf).
Occorre premettere due concetti:
Modelli di IA anonimi
L’Opinion esclude che un modello addestrato su dati personali possa essere considerato anonimo, laddove il modello sia stato progettato specificamente per fornire dati personali relativi a individui i cui dati personali sono stati utilizzati per addestrare il modello o per rendere disponibili tali dati; caso diverso è quello in cui il modello sia stato sì addestrato con dati personali, ma con la finalità di trarre inferenze su individui diversi da quelli i cui dati personali sono stati utilizzati per addestrarlo.
L'EDPB afferma dunque che ciascun modello di IA dovrebbe essere valutato, caso per caso, dalle autorità di protezione dei dati per stabilirne l'anonimato.
Per definire un modello di IA come anonimo, dovrebbe essere molto improbabile:
Il parere fornisce poi un elenco - non esaustivo e non prescrittivo - di metodi per dimostrare l'anonimato.
Resta il fatto che raggiungere un'effettiva anonimizzazione, date le caratteristiche intrinseche dei modelli di IA e le tecnologie disponibili, allo stato attuale è un’attività molto complessa così come lo è dimostrare che l’anonimizzazione sia effettiva.
L'EDPB chiarisce poi che i titolari del trattamento devono mantenere una documentazione dettagliata al fine di permettere alle autorità di controllo di verificare l'efficacia delle misure adottate e garantire che l'anonimizzazione sia stata realizzata in conformità ai requisiti del GDPR. Questa documentazione deve comprendere analisi dei rischi, descrizioni delle tecniche di mitigazione usate, esiti di test di resistenza del modello a potenziali attacchi, ecc.
Modelli basati su dati trattati illecitamente
Se i dati per sviluppare un modello di IA sono stati trattati illecitamente, anche il modello potrebbe non essere considerato lecito, a meno che non si provveda ad anonimizzare quei dati prima del deployment o non si dimostri che le operazioni successive del modello di IA non implichino trattamento di dati personali. Ovviamente l’illiceità del trattamento iniziale non deve avere influenza sull’operatività del modello.
In caso contrario, le Autorità Garanti possono chiedere la cancellazione del set di dati trattati illecitamente oppure, ove questo non sia possibile, deliberare la cancellazione dell’intero set di dati usato per lo sviluppo del modello di IA o del modello stesso. Decisioni che evidentemente possono incidere fortemente sulle attività, i budget e perfino la sopravvivenza delle Organizzazioni che non abbiano tenuto nella dovuta considerazione la liceità del trattamento dei dati personali.
L'interesse legittimo
Il parere riporta considerazioni generali, di cui le autorità dovrebbero tenere conto per la definizione del legittimo interesse come base giuridica adeguata ai fini dello sviluppo e della diffusione di modelli di IA. Ciò di per sé implica che la base giuridica del legittimo interesse è ammessa.
Ma l’EDPB stigmatizza anche come questa base giuridica, nel contesto dei modelli di IA, sia particolarmente delicata e abbia necessità di accurate analisi: si tratta infatti di tecnologie che hanno il potere di effettuare trattamenti intrusivi e potenzialmente discriminatori, che potrebbero essere gravemente lesivi dei diritti e delle libertà delle persone cui i dati si riferiscono.
Nel parere vengono inoltre definiti criteri per supportare le autorità di protezione dei dati nel valutare se le persone possano essere “preparate” a specificati usi dei loro dati personali, quali, ad esempio:
Il parere richiama il test in tre fasi, le cui linee guida sono disponibili qui ; il test (le cui risultanze vanno documentate) ha l’obiettivo di verificare che i titolari del trattamento abbiano attentamente valutato se sono soddisfatte queste tre condizioni:
In definitiva il test serve a supportare la definizione del legittimo interesse come appropriata base giuridica.
Qualora il test restituisca un esito negativo per l’impatto sulle persone, il parere suggerisce all’adozione di misure di mitigazione, fornendone anche un elenco esemplificativo e non esaustivo da cui poter attingere. Tra di esse troviamo: la minimizzazione, la pseudonimizzazione e altre tecniche di riduzione del rischio di interferenza con i diritti fondamentali.
Tuttavia, avvedutamente l'EDPB sottolinea come tali misure debbano essere sempre personalizzate e adeguate ai rischi specifici del trattamento.