Riassunto analitico
L’explainability è un tema sempre più rilevante nell’ambito del Machine Learning e dell’Ottimizzazione, in particolare nei contesti in cui le decisioni prese dai modelli devono essere comprensibili e giustificabili. Questa tesi esplora il concetto di explainability applicato sia ai modelli predittivi che ai problemi di ottimizzazione vincolata, analizzando le principali tecniche e metodologie utilizzate per migliorare la trasparenza e l’interpretabilità delle soluzioni.
Nel primo capitolo viene introdotto il tema dell’explainability nel Machine Learning, evidenziando la necessità di comprendere e giustificare le decisioni dei modelli per aumentarne la fiducia e l’affidabilità. Vengono analizzati alcuni tra i principali approcci esistenti, tra cui SHAP (Shapley Additive Explanations), LIME (Local Interpretable Model-agnostic Explanations) e Permutation Importance, illustrandone i principi e le applicazioni nei modelli predittivi complessi.
Successivamente, viene affrontato il tema dell’Explainable Constraint Programming, che si occupa di rendere interpretabili le soluzioni fornite dai modelli di ottimizzazione. Dopo una panoramica sui fondamenti dell’ottimizzazione vincolata e sugli strumenti utilizzati, con particolare riferimento alla libreria OR-Tools, vengono presentate diverse metodologie per l’explainability in questo ambito. In particolare, vengono approfondite le deductive explanations, che forniscono una giustificazione diretta delle soluzioni ottimali, le counterfactual explanations, che esplorano le variazioni nei dati necessarie per ottenere soluzioni alternative, e l’inverse optimization, utile per comprendere i vincoli impliciti che guidano le decisioni del modello.
Infine, viene descritto il modello di ottimizzazione sviluppato durante il tirocinio, realizzato come toy model per sperimentare e analizzare le tecniche di explainability nel contesto dell’ottimizzazione. Dopo aver presentato la struttura del modello, le variabili, i vincoli e la funzione obiettivo, vengono illustrate le strategie implementate per la generazione di spiegazioni interpretabili. I risultati ottenuti dimostrano l’efficacia delle tecniche proposte nel migliorare la comprensibilità delle soluzioni ottimali, contribuendo a rendere più trasparente il processo decisionale nei problemi di ottimizzazione.
|