Riassunto analitico
Negli ultimi anni, la localizzazione e la mappatura simultanea (SLAM) hanno assunto un ruolo di primaria importanza nella robotica mobile, consentendo ai robot di operare in ambienti sconosciuti senza il supporto di infrastrutture esterne. Nonostante il problema del SLAM sia stato studiato sin dagli anni ’80, solo di recente i progressi nell’hardware e negli algoritmi di visione artificiale hanno reso possibile lo sviluppo di soluzioni sempre più affidabili ed efficienti. Tra le varie tecniche disponibili, il Visual SLAM (V-SLAM) si distingue per l’uso delle telecamere come principale sensore per la percezione dell’ambiente. Le telecamere sono strumenti economici e ampiamente disponibili, rendendole una scelta vantaggiosa rispetto ad altri sensori come LiDAR e radar, che pur offrendo maggiore precisione, risultano più costosi e complessi da gestire. Tuttavia, il V-SLAM presenta diverse sfide aperte, tra cui:
• La robustezza dell’algoritmo in condizioni di illuminazione variabile o in ambienti con scarsa texture; • L’accuratezza della stima della traiettoria e la deriva accumulata nel tempo; • L’integrazione con altri sensori per migliorare la precisione e la robustezza della localizzazione.
Questa tesi si propone di analizzare il problema del V-SLAM nel percepire l’ambiente circostante tramite uno dei principali algoritmi in questione: RTAB-Map. RTAB-Map sfrutta un approccio basato su grafo con tecniche di loop closure detection, risultando particolarmente efficace nella creazione di mappe di grandi dimensioni. In particolare, con l’obiettivo di migliorare la precisione della localizzazione e di ridurre gli errori di deriva tipici del V-SLAM puro, all’interno di questo eleborato verranno mostrate le prestazioni dell’algoritmo RTAB-Map nella localizzazione e mappatura dell’ambiente successivamente migliorate integrando le misure di altri sensori a disposizione del robot utilizzato (come IMU ed encoder). Successivamente, per capire meglio le potenzialità dell’algoritmo di V-SLAM usato rispetto ad altre tecnologie presenti, viene svolto un confronto dell’algoritmo con AMCL, algoritmo molto utilizzato nello SLAM a base LIDAR. Infine, verrà sviluppato un modulo di riconoscimento degli oggetti e stima della distanza utilizzando una telecamera RGB-D. Questo modulo sarà impiegato per mi- gliorare le capacità di navigazione autonoma del robot, consentendogli di identificare ostacoli dinamici, stimarne la distanza e, in futuro, prendere decisioni in tempo reale per evitare collisioni. L’integrazione di queste tecnologie rappresenta un passo significativo verso la rea- lizzazione di sistemi di navigazione autonoma più robusti ed efficienti, con applica- zioni in settori quali la robotica di servizio, l’esplorazione autonoma e la logistica intelligente.
|