Riassunto analitico
La rapida evoluzione dell'Intelligenza Artificiale (AI) sottolinea un imperativo etico che richiede un'attenzione senza precedenti. Oggi, le applicazioni di AI sono sempre più integrate in vari aspetti della vita umana, dalla diagnosi medica alla giustizia penale, dall'ambito lavorativo alla pubblicità, e hanno un impatto significativo su decisioni cruciali. L'integrazione di questi sistemi nei processi decisionali solleva preoccupazioni etiche riguardanti equità, trasparenza e responsabilità. Pertanto, non si può trascurare l'importanza dell'etica nei sistemi di AI.
Questo studio esplora la teoria del bias, che copre concetti come pregiudizi, stereotipi e discriminazioni, e le loro manifestazioni sia nel comportamento umano che nei sistemi di IA. Esamina le sfide poste da biased AI e esplora metodologie per mitigarlo, con un'enfasi sulle pratiche di Responsible AI. Il focus poi si sposta sulla ricerca del bias all'interno del modello CLIP di OpenAI, che, nonostante la sua tecnologia avanzata, non è immune ai bias impliciti derivanti dai suoi dati di addestramento. Pertanto, l'obiettivo principale è identificare questi bias utilizzando il dataset Fairface, che è stato uno strumento fondamentale nell'identificazione di pregiudizi legati all'età, al genere e alla razza, in particolare nei contesti professionali e psicologici. Una volta identificati i bias, è stata eseguita una ricerca empirica utilizzando tecniche di visualizzazione ed esperimenti di modifica per confermare la loro presenza. Infine, questo studio utilizza un approccio di prompt learning per dimostrare l'efficacia dei soft prompt nel mitigare i bias rispetto agli hard prompt.
Questa tesi utilizza, dunque, un approccio empirico e analitico per far luce su un argomento complesso e sensibile, con l'obiettivo di promuovere un futuro in cui la tecnologia svolga un ruolo positivo nel plasmare una società più inclusiva guidata da equità ed empatia.
|
Abstract
The rapid evolution of Artificial Intelligence (AI) technologies emphasizes an ethical imperative that requires unprecedented attention. Today, AI applications are increasingly embedded in various aspects of human life, from medical diagnosis to criminal justice, labor markets, and advertising, and they have a significant impact on critical decisions. The integration of intelligent systems into decision-making processes raises ethical concerns about fairness, transparency, and accountability. Therefore, the importance of ethics in AI systems cannot be overstated.
This study explores the theory of bias, which covers concepts such as prejudice, stereotyping, and discrimination and their manifestations in both human behavior and AI systems. It examines the challenges posed by biased AI and explores methodologies for mitigating bias, with an emphasis on Responsible AI practices.
The focus then shifts to examining bias within OpenAI's CLIP model, which, despite its advanced technology, is not immune to implicit biases originating from its training data.
Therefore, the primary objective is to identify these biases, particularly by using the Fairface dataset, which has been a fundamental instrument in identifying biases related to age, gender, and race, particularly within professional and psychological contexts.
Once biases are identified, empirical research is conducted using visualization techniques and modification experiments to confirm their presence.
Finally, this study employs a prompt learning approach to demonstrate the effectiveness of soft prompts in mitigating biases compared to hard prompts.
The thesis uses an empirical and analytical approach to shed light on a complex and sensitive issue, with the aim of promoting a future where technology plays a positive role in shaping a more inclusive society guided by fairness and empathy.
|