Riassunto analitico
L'Intelligenza Artificiale (IA) sta diventando una componente essenziale delle imprese moderne, contribuendo all'automazione delle attività, al miglioramento della produttività e alla risoluzione di problemi complessi. L'IA generativa, in particolare i Large Language Models (LLM), ha trasformato il modo in cui i computer comprendono e generano il linguaggio umano, rendendo possibile la creazione di assistenti virtuali intelligenti. Tuttavia, gli LLM standard presentano limitazioni poiché si basano esclusivamente su conoscenze preesistenti, che possono risultare obsolete o incomplete quando si tratta di rispondere a domande specifiche relative all'ambito aziendale.
Questa tesi presenta lo sviluppo di un assistente AI progettato per migliorare l'efficienza aziendale combinando gli LLM con la Retrieval-Augmented Generation (RAG). Il sistema implementa due livelli di recupero delle informazioni: un recupero a livello di pagina per identificare i documenti pertinenti e un recupero a livello di sezione per estrarre le informazioni più rilevanti. L'assistente è costruito utilizzando strumenti open-source, tra cui llama-cpp e Ollama per l'esecuzione locale del modello AI, un database PgVector per l'archiviazione e il recupero delle informazioni, e una configurazione basata su Docker per facilitare il deployment.
Per valutare le prestazioni del sistema, è stato creato un dataset di 100 domande accuratamente selezionate, consentendo una valutazione dettagliata dell'efficacia del recupero e della generazione delle risposte. I risultati dimostrano che la combinazione di LLM con RAG migliora significativamente la precisione nel recupero delle informazioni pertinenti rispetto all'utilizzo del solo LLM, con il sistema a doppio livello di recupero che ottiene prestazioni superiori nella risposta a domande specifiche sulla documentazione.
Le possibili direzioni future includono il raffinamento del processo di recupero e l'espansione della base di conoscenza del sistema per renderlo ancora più affidabile ed efficace.
|
Abstract
Artificial Intelligence (AI) is becoming an essential component of modern businesses, helping to automate tasks, improve productivity, and solve complex problems. Generative AI, especially Large Language Models (LLM), has transformed the way computers understand and generate human language, making it possible to create intelligent virtual assistants. However, standard LLMs have limitations because they rely solely on pre-existing knowledge, which can be outdated or incomplete when it comes to answering specific business-related questions.
This thesis presents the development of an AI assistant designed to improve business efficiency by combining LLMs with Retrieval-Augmented Generation (RAG). The system implements two levels of information retrieval: a page-level retrieval to identify relevant documents and a section-level retrieval to extract the most relevant information. The assistant is built using open-source tools, including llama-cpp and Ollama for local execution of the AI model, a PgVector database for information storage and retrieval, and a Docker-based setup for easy deployment.
To evaluate the system's performance, a dataset of 100 carefully selected questions was created, allowing for a detailed assessment of the effectiveness of retrieval and answer generation. The results demonstrate that combining LLM with RAG significantly improves the accuracy of retrieving relevant information compared to using LLM alone, with the dual-level retrieval system achieving superior performance in answering specific documentation questions.
Possible future directions include refining the retrieval process and expanding the system's knowledge base to make it even more robust and effective.
|