Riassunto analitico
Questo studio mira a investigare il bias nel modello di intelligenza artificiale CLIP (Contrastive Language-Image Pretraining), esaminando le metodologie e le metriche utilizzate per tale valutazione. Inizialmente, viene replicato l'esperimento sul bias descritto nel paper di CLIP, utilizzando il dataset FairFace che comprende immagini di individui corredate da descrizioni testuali contenenti informazioni sulla razza e sul genere. Si evidenzia l'errore di classificazione introdotto da CLIP quando vengono aggiunte specifiche etichette, sottolineando l'importanza di considerare il bias nei modelli di intelligenza artificiale. Successivamente, l'analisi si estende alle etichette emotive e alle dimensioni psicologiche come competenza, calore e moralità, rivelando bias più sottili nelle previsioni di CLIP. Utilizzando metriche consolidate come Equal Opportunity e Demographic Parity, insieme a metriche meno convenzionali come la Consistency, valutiamo l'equità e la coerenza delle predizioni di CLIP. Questo studio contribuisce alla comprensione del bias nei modelli di intelligenza artificiale e fornisce indicazioni per migliorare l'equità e la giustizia in questi sistemi. In aggiunta, per indagare ulteriormente il comportamento di CLIP rispetto al bias, sono stati condotti esperimenti utilizzando un dataset di immagini prive di attributi emotivi. Questa fase dell'analisi coinvolge la valutazione delle predizioni di CLIP su immagini senza connotazioni emotive e il successivo cambio degli attributi delle immagini per osservare eventuali variazioni nelle predizioni del modello. I risultati di questi esperimenti forniscono ulteriori insight sul modo in cui CLIP risponde alle variazioni degli attributi delle immagini e rivelano eventuali bias presenti nel modello in contesti diversi.
|
Abstract
This study aims to investigate bias in the CLIP (Contrastive Language-Image Pretraining) artificial intelligence model, examining the methodologies and metrics used for such evaluation. Initially, the bias experiment described in the CLIP paper is replicated using the FairFace dataset, which includes images of individuals accompanied by text descriptions containing information on race and gender. The classification error introduced by CLIP when specific labels are added is highlighted, underscoring the importance of considering bias in AI models. Subsequently, the analysis extends to emotional labels and psychological dimensions such as competence, warmth, and morality, revealing subtler biases in the predictions of CLIP. Utilizing established metrics such as Equal Opportunity and Demographic Parity, along with less conventional metrics like Consistency, we assess the fairness and coherence of the predictions made by CLIP. This study contributes to understanding bias in AI models and provides insights for improving fairness and justice in artificial intelligence systems. Additionally, to further investigate the behavior of CLIP regarding bias, experiments were conducted using a dataset of images devoid of emotional attributes. This phase of the analysis involves evaluating the predictions of CLIP on images without emotional connotations and subsequently changing the attributes of the images to observe any variations in the model's predictions. The results of these experiments provide further insights into how CLIP responds to changes in image attributes and reveal any biases present in the model across different contexts.
|