Riassunto analitico
I sistemi di analisi video stanno assumendo una crescente pervasività nelle nostre esperienze quotidiane. Le loro competenze si sono ampliate grazie all'integrazione dell'Intelligenza Artificiale, ma parallelamente si sono accresciuti anche i rischi associati. I sistemi di Human Behavior Understanding si dedicano all'analisi di vaste quantità di immagini e video ritraenti individui, al fine di estrarre informazioni di rilievo. Tuttavia, all'interno di tali dati si collocano anche informazioni personali quali età, genere ed etnia, che, se utilizzate impropriamente, possono condurre alla violazione di fondamentali diritti, quali quelli legati alla privacy e alla non-discriminazione.
Recentemente, le istituzioni politiche hanno risposto a questa evoluzione normativa creando nuove leggi, sia a livello nazionale che internazionale, finalizzate a regolare l'impiego di dati personali da parte dei sistemi automatizzati di Intelligenza Artificiale. Frequentemente, tali sistemi sono impiegati dalle organizzazioni per scopi di marketing. Attraverso l'analisi dei comportamenti dei consumatori, è possibile dedurre le loro preferenze, strutturando percorsi d'acquisto adatti a ciascun individuo e incrementando i profitti aziendali. In questo contesto, diventa imperativo che le suddette aziende si conformino alle nuove disposizioni legislative. È quindi di fondamentale importanza introdurre un processo di anonimizzazione mirato a modificare i dati localmente acquisiti dalle videocamere al fine di eliminare ogni elemento sensibile in essi contenuto. Una volta completata l'anonimizzazione di un dato, sarà possibile condividerlo e processarlo senza alcun rischio.
Nella presente tesi, vengono presentate due potenziali tecniche di anonimizzazione, concepite per favorire la progettazione di sistemi di AI che garantiscano la privacy degli utenti coinvolti. Per simulare un contesto realistico, è stato implementato un sistema di Pose Estimation finalizzato all'analisi di immagini provenienti da telecamere situate in luoghi pubblici. Poiché tali immagini contengono dati personali, diventa essenziale integrare una strategia di anonimizzazione.
La prima proposta strategica si basa sulla Divergenza di Kullback-Leibler ed è un metodo generico volto a modificare i dati estratti, indipendentemente dal compito richiesto.
La seconda strategia di anonimizzazione è più specifica e, di conseguenza, più efficace. Essa si basa sull'implementazione di un modulo di Re-Identification che affianca il modulo primario di Pose Estimation. La rete risultante presenta una struttura multi-task e viene addestrata attraverso un approccio avversario. Grazie a questa modalità di apprendimento, la rete è in grado di discriminare i dati sensibili e di eliminarli in modo più efficace, preservando al contempo l'integrità dei dati essenziali per il compito principale.
Il presente documento dettaglia le scelte implementative adottate per lo sviluppo delle due tecniche di anonimizzazione. Successivamente, sono riportati gli esperimenti condotti al fine di attestare l'efficacia dell'anonimizzazione. La rete di Pose Estimation originale è stata oggetto di confronto con la sua versione anonimizzata. I risultati ottenuti in termini di precisione della Pose Estimation sono stati comparabili, dimostrando che l'anonimizzazione non ha compromesso l'efficienza del sistema. È emerso chiaramente che i dati estratti dalla rete anonimizzata contengono significativamente meno informazioni personali rispetto ai dati provenienti dalla rete non anonimizzata. Questo esperimento fornisce una prova tangibile che l'implementazione di agili tecniche di Anonimizzazione consente di garantire una robusta protezione della privacy degli utenti, preservando nel contempo l'integrità e la funzionalità del sistema per gli obiettivi aziendali.
|