Riassunto analitico
I robot stanno ottenendo sempre più importanza all'intero delle attività umane. Sempre più frequentemente uomo e robot (o macchine automatiche) condividono lo stesso ambiente. Ad esempio nell'industria manifatturiera, lavorano nello stesso processo, ma spesso i robot svolgono mansioni differenti da quelle degli operatori umani. La causa è nella loro diversità, infatti i loro punti di forza non sono gli stessi. In quanto macchine, i robot sono più precisi e possono ripetere per molte volte la stessa procedura senza particolari problemi. Un lavoratore umano è più intelligente, più facilmente è in grado di adattare le attività che compie a seconda della mansione e dei prodotti su cui opera. La possibilità di farli interagire insieme può unire i vantaggi di entrambi, e aprire nuove interessanti opportunità.
In un'interazione cooperativa, infatti, uomini e robot lavorano alla stessa attività. In questo modo l'uomo può mettere in gioco le sue capacità, con il risultato di aumentare l'efficacia del robot nella realizzazione di attività complesse. Sfortunatamente, ciò non è frequente. Invece, è tipica la situazione in cui lavorano alla stessa attività, ma svolgono attività distinte, spazialmente separati. Nel caso di linee manifatturiere, i manipolatori svolgono attività strutturate (es. saldatura), mentre gli operatori realizzano incarichi meno strutturati (es. l'ispezione visiva).
Nel caso di macchine automatiche per produzione ad alta velocità, l'operatore generalmente supervisiona la macchina e interviene in caso di necessità. Normalmente si occupa anche della modifica dei parametri di processo, per adattarli alla produzione richiesta.
In questa tesi sono considerati diversi casi di cooperazione uomo-macchina.
Inizialmente, è presentato un sistema cooperativo uomo-robot per la programmazione di una ispezione visiva. L'efficacia della programmazione è stata aumentata facendo uso di tag visuali e restituendo all'operatore un feedback haptico, all'interno di una programmazione walk-through.
In seguito, è considerato il problema della stima della posizione 3D di alcuni oggetti, come compito incluso in un'attività più estesa. Inizialmente sono stati considerati elementi disposti sul terreno. Un operatore umano teleopera sopra l'area di interesse un drone, dotato di una telecamera rivolta in basso. Per aumentare la velocità di convergenza della stima, un feedback haptico è inviato all'operatore per informarlo sulla direzione migliore da prendere. I risultati di questo lavoro sono poi stati applicati ad un robot per farlo muovere all'interno di un ambiente con ostacoli, e comandarlo verso una destinazione imposta. La navigazione è basata su funzioni potenziali. Gli ostacoli sono individuabili con una telecamera monoculare, e la loro distanza deve essere stimata. È stata implementata una strategia di stima attiva, per aumentare la velocità di stima della distanza dagli ostacoli, e raggiungere più velocemente la destinazione.
Sono poi introdotte alcune applicazioni nel campo dell'automazione industriale. L'operatore interagisce con la macchina attraverso un'interfaccia grafica, che presenta lo stato della macchina. L'interazione con la macchina può essere complicata se lo stato di funzionamento non è chiaro. Perciò sono state sviluppate due strategie: una classificazione gerarchica degli allarmi, per filtrarne la visualizzazione; l'uso di una macchina a stati standard per lo sviluppo del software di macchina.
Infine, per il supporto all'attività di risoluzione dei guasti, è stata realizzata una applicazione interattiva. L'operatore è guidato attraverso un albero decisionale verso l'identificazione della causa del guasto, e nelle procedure necessarie per il ripristino della macchina.
|
Abstract
Robots are getting more and more relevance in the human activities. The presence of humans and robots (or automatic machines) in the same environment is becoming more frequent. In manufacturing, for example, they work on the same activity, but they often are assigned to different tasks. This is because humans and robots are different, and the strengths they have are not the same. As machines, robots are more precise and capable of repeating the same procedure many times, without any problem. Humans are smarter, they can easily adapt their activities to the the task or the products to process.
Having them interacting together can merge the advantages of both, and open new interesting opportunities.
In a cooperative interaction, in fact, the human operator and the robot are working together on the same task. In this way, the cognitive or dexterous abilities of the user can be exploited for a more effective execution of a complex task.
Today, unfortunately, it is not frequent. Rather, it is typical the situation where humans and robots contribute to a common process, but performing different tasks in separate workspaces. For example, in industrial manufacturing lines, robotic manipulators take care of structured tasks (e.g. welding), while humans take care of more unstructured tasks (e.g. visual inspection).
In the case of automatic machines with high production speed, the operator activities are the supervision of the machine and intervention when the machine is going to fail. S/he also can modify some process parameters to adapt the production to some specific needs.
In this thesis are considered different cases of human-machine cooperation.
Firstly, it is presented a cooperative human-robot system for programming a visual inspection. The effectiveness of the procedure has been increased by introducing some visual tags and a haptic visual feedback on top of a walk-through programming.
Then, it is investigated the problem of the estimation of the 3D poses of visual features as part of a larger activity. Initially, it is considered the estimation of some features placed on the ground. A human operator teleoperates over the area of interest a Unmanned Aerial Vehicle (UAV) with a monocular camera pointing downwards. For improving the convergence speed of the estimation of the 3D poses, a haptic feedback is sent to the operator as a clue for the best direction to take. Then, these results have been applied to a robot that moves in a cluttered environment towards a goal imposed by a human operator. The navigation is performed with potential functions. The obstacles are detected with a monocular camera, and their distance needs to be estimated. An active estimation strategy has been implemented, to increase the speed of the estimation and to reach the goal faster.
Later, some applications in the field of industrial automation are introduced. The human operator interacts with the machine through a graphical interface, where the machine status is presented. If the machine status is not clear, the interaction can be difficult. To address this problem, two strategies have been investigated: a hierarchical classification of the alarms of the machine, for filtering their visualization according to their gravity; the use of a standard state machine for developing the software of the machine.
Lastly, for improving the troubleshooting process has been realized an interactive application. By guiding the operator through a decision tree, s/he is lead to the identification of the problem affecting the machine. Once the cause has been identified, the application guides the operator through the necessary tasks for recovering the machine to an operative state.
|