Riassunto analitico
La robotica si sta diffondendo sempre maggiormente, specialmente negli ultimi tempi, in uno spettro di ambiti sempre più eterogeneo; questo settore si sta evolvendo molto rapidamente e si sta cercando di ottenere sistemi sempre più autonomi e flessibili nello svolgimento delle operazioni per le quali sono impiegati. Uno dei temi maggiormente diffusi in questo ambito è la stima della posa di un oggetto, nello spazio, rispetto al braccio robotico; questa informazione permette di comprendere la posizione e l’orientamento dell’oggetto considerato rispetto al braccio robotico. Questa informazione può essere utilizzata per fornire al sistema robotico una cognizione della posizione di un oggetto rispetto ad esso. L’ambito della stima della posa esiste ed è esplorato da diversi anni, tuttavia data l'importanza di questa informazione nell'ambito in analisi, è in costante evoluzione. Con questo progetto di tesi si cerca di confrontare alcune delle diverse metodologie che permettono di stimare la posa di un oggetto conosciuto, nello spazio, attraverso l’uso di dati visivi e geometrici; nello specifico sono confronti alcuni metodi algoritmici, basati sia su informazioni bidimensionali (acquisizioni RGB) sia su informazioni tridimensionali (acquisizione RGB-D e nuvole di punti). Questi metodi sono fondamentali per l'annotazione dei dati necessari per allenare una rete neurale addestrata per stimare la posa di un oggetto noto. Un confronto più approfondito si basa sul paragone tra i risultati ottenuti da un metodo algoritmico (il solvePnP) e quelli ottenuti da una rete neurale (la DenseFusion), poste nelle medesime condizioni operative. Il confronto si sviluppa attraverso il paragone dei risultati ottenuti da entrambi gli approcci visivamente: attraverso un metodo che proietta i vertici dell’oggetto sulla scena attualmente considerata; fisicamente: sfruttando un braccio robotico che si sposta sui vertici dell’oggetto, così da poter verificare la coerenza tra stima e realtà; ed infine un confronto numerico derivante dall’ultimo approccio descritto. Da questo studio derivano alcuni risultati che permettono di comprendere le maggiori differenze tra i due approcci analizzati, ognuno con i propri pregi e difetti. Questo studio può essere considerato come base per numerose applicazioni che sfruttino questo tipo di informazione, come ad esempio il pick-and-place o la manipolazione di oggetti.
|
Abstract
In the last years the robotics is diffusing and developing always more and more, and it is diffusing in a very high variety of sectors; the robotics is searching to obtain always more autonomous and more flexible systems in their operations. In the robotic field one very important information is the pose of an object in the space, with respect to the robotic arm; this information can be obtained through the pose estimation process. This information can be used so to let the robotic arm the knowledge about the position of an object with respect to itself. This data and the methods to estimate it, are studied since a long time, but because of its importance it is constantly developing. This thesis aims to compare some of the available methods permitting to estimate the pose of a known object in the space, exploiting the use of visual and geometrical data; in the specific it is compared some algorithmic approaches, basing both on bi-dimensional information (the RGB acquisition) and on three-dimensional data (RGB-D data or point clouds). These methods are essential to annotate the data necessary to train a neural network with the specific purpose of estimating the pose of a known object in the space. A more detailed comparison permits to compare the results coming from one specific algorithmic approach (the solvePnP) and the ones obtained through a neural network (the DenseFusion), put into the same identical operational conditions. The comparison exploits the results obtained from from a visual point of view: a method permits to project the object's vertices on the actually seen scene; a physical comparison: a robotic arm permits to compare the estimated vertices with respect to the real ones through its motion on them; finally it is performed a numerical comparison coming from the previous verification. These results permit to compare the two methods highlighting their strengths and their points of weakness. This study can be considered as a base for a lot of applications exploiting the pose estimation, like the pick-and-place or the object manipulation.
|