Riassunto analitico
La seguente tesi affronta l’ottimizzazione dell’interazione uomo-robot attraverso l’integrazione di elementi emozionali nel processo di controllo. Nel contesto dell’evoluzione tecnologica e dell’ampia diffusione dei cobot nella società moderna, l’abilità di comprendere e rispondere alle emozioni umane diviene cruciale per migliorare l’efficacia dell’interazione tra individui e macchine.
Nella prima parte della tesi si analizza lo stato dell’arte, si esaminano le metodologie attuali per il controllo in impedenza dei cobot e si evidenziano le lacune nella considerazione delle emozioni nell’interazione uomo-robot (HRI). L’obiettivo di questo lavoro di tesi, consiste nello sviluppo di un nuovo algoritmo per il controllo in impedenza di un manipolatore con parametri di massa, rigidezza e smorzamento variabili in funzione dell’emozione dell’utente. In particolare, se durante l’interazione viene rilevata un’emozione positiva il robot tenderà ad avere un approccio più cedevole; se si rileva un’emozione neutra il robot continuerà con il suo andamento, mentre tenderà ad avere un approccio più rigido e controllato, nel momento in cui viene rilevata un’emozione negativa. Tale algoritmo è stato testato in un’attività collaborativa per il disegno di un segmento con punti iniziale e finale definiti dall’operatore, al fine di simulare l’operazione di taglio con bisturi su un paziente, in un contesto reale. Durante tutto l’esperimento, il volto dell’utente viene ripreso tramite una telecamera e, attraverso una funzione matematica specifica, viene generato un fattore di scala come intero tra 1 e 7, in base allo stato emotivo rilevato. Questo fattore viene sfruttato per modulare i parametri fondamentali del robot, quindi per calcolare le nuove coppie da utilizzare nel controllo in impedenza. Si esplora quindi la modulazione delle risposte del robot in base alle emozioni percepite, al fine di creare un’interazione più naturale, empatica ed efficace.
Il robot collaborativo utilizzato negli esperimenti è un manipolatore KUKA LWR4+ e l’algoritmo di controllo è stato implementato sul software ROS (Robot Operating System), un insieme di framework per lo sviluppo e la programmazione di robot. Per il riconoscimento facciale e la classificazione delle emozioni è stato utilizzato un modello costituito da una VGGNet (rete neurale convoluzionale) a 15 livelli ed un’API in Python basata sulla libreria MediaPipe. L’informazione dell’emozione provata, verrà poi comunicata da un nodo Python su ROS, al nodo in C++ che si occupa del controllo.
Per avere una prima idea dei risultati ottenuti è stato utilizzato l’ambiente Matlab ed in seguito si è passati a simulazioni più dettagliate in cui visualizzare i movimenti del robot in 3D tramite RViz. L’esperimento nell’ambiente reale ha coinvolto venti partecipanti che hanno fornito feedback sulla qualità dell’interazione. Si evidenziano i vantaggi dell’approccio proposto in termini di miglioramento dell’esperienza dell’utente e di adattabilità del robot a contesti emozionali variabili.
Le conclusioni della ricerca sottolineano l’importanza dell’integrazione delle emozioni nell’interazione uomo-robot e forniscono spunti per future applicazioni e sviluppi in questo campo. Si identificano potenziali settori applicativi, come l’ambito medico, l’apprendimento personalizzato e l’assistenza agli anziani.
|