Riassunto analitico
Questo lavoro presenta un innovativo sistema di assistenza veicolare che integra i Large Language Models (LLM) con un Agente in grado di interagire con i servizi digitali quotidiani dell'utente. Il sistema si distingue per la sua architettura a tre livelli: un modulo LLM che elabora e scompone le richieste complesse dell'utente in sotto-task più semplici, un Agente che esegue questi task attraverso strumenti specifici, e un modulo di sintesi che genera risposte contestualizzate. L'innovazione principale risiede nell'integrazione di tre dimensioni contestuali durante l'elaborazione delle richieste: i parametri biometrici e comportamentali del conducente (come livello di attenzione, stati emotivi e parametri fisiologici), le condizioni del veicolo (inclusi velocità, posizione sulla corsia e stato della batteria) e i fattori ambientali (temperatura, umidità e pressione atmosferica). Questa approccio permette al sistema di adattare dinamicamente non solo le risposte, ma anche le modalità di presentazione delle informazioni in base al contesto di guida. L'output del sistema, strutturato in formato JSON, definisce il tipo di azione, la sua descrizione e i parametri di visualizzazione, garantendo una comunicazione efficace e appropriata allo stato attuale del conducente e dell'ambiente circostante.
|
Abstract
This work presents an innovative in-car assistance system that integrates Large Language Models (LLM) with an Agent capable of interacting with the user's daily digital services. The system features a distinctive three-level architecture: an LLM module that processes and breaks down complex user requests into simpler sub-tasks, an Agent that executes these tasks through specific tools, and a synthesis module that generates contextualized responses. The main innovation lies in the integration of three contextual dimensions during request processing: the driver's biometric and behavioral parameters (such as attention level, emotional states, and physiological parameters), vehicle conditions (including speed, lane position, and battery status), and environmental factors (temperature, humidity, and atmospheric pressure). This approach allows the system to dynamically adapt not only the responses but also the information presentation modalities based on the driving context. The system's output, structured in JSON format, defines the type of action, its description, and visualization parameters, ensuring effective communication that is appropriate to the current state of the driver and the surrounding environment.
|