Riassunto analitico
Negli ultimi anni, i Large Language Model (LLM) hanno trasformato il settore dell'Intelligenza Artificiale, dimostrando eccezionali abilità nella comprensione e produzione del linguaggio naturale. Tuttavia, tali modelli presentano limiti significativi, tra cui la dipendenza da dati di addestramento statici e l’incapacità di aggiornarsi autonomamente con informazioni recenti o specifiche di settore. Per superare queste limitazioni, è stato introdotto il paradigma del Retrieval-Augmented Generation (RAG), che combina la generazione testuale dei LLM con un sistema di recupero delle informazioni, consentendo l’accesso dinamico a dati aggiornati e contestualmente rilevanti. Questa tesi si concentra sullo sviluppo e l’implementazione di un sistema RAG con l’obiettivo di migliorare l’accuratezza e la pertinenza delle risposte generate da un modello LLM. Il lavoro è stato articolato in diverse fasi: un’analisi dello stato dell’arte, la progettazione dell’architettura del sistema, l’integrazione di un motore di recupero delle informazioni e una valutazione sperimentale delle prestazioni.
|