Riassunto analitico
In qualsiasi campo di studio in cui l’intelligenza artificiale viene impiegata, come il riconoscimento vocale, il rilevamento e la classificazione di persone, la guida autonoma o, più in generale, in qualsiasi applicazione in cui il compito da portare a termine necessiti di un’elaborazione delle informazioni a disposizione per poter prendere una decisione abbiamo bisogno che i computer siano in grado di raggiungere ed eventualmente eccedere le capacità dell’intelligenza umana. La principale caratteristica del cervello umano che vorremmo trasmettere a una rete neurale risiede proprio nell’abilità di accumulare conoscenza per tutto il corso della vita, senza dimenticare ciò che si è imparato. Di questo si occupano le tecniche di continual learning e multi-task learning indagate in questo studio. In particolare, si vuole andare oltre al tradizionale scenario d’applicazione del machine learning e lavorare, invece, su problemi di predizione i cui dati di riferimento a disposizione sono incerti, non bilanciati e non del tutto annotati. Solitamente le reti neurali rappresentano una risorsa essenziale per problemi di questo tipo, ma l'incertezza dei dati di riferimento limita le loro applicazioni in scenari reali. Si studierà, quindi, come sviluppare tecniche di apprendimento che possano operare con dati di addestramento spesso annotati solo parzialmente, rumorosi e non identicamente distribuiti. Si introdurranno delle tecninche di apprendimento auto-supervisionato nella forma di task pretesto, da affiancare al task principale della rete. Queste tecniche permetteranno alla rete di dedurre le etichette corrette corrispondenti ai dati di input e di imparare, nel frattempo, le loro strutture implicite. In questo caso, l'effetto desiderato dell'applicare un determinato task di apprendimento auto-supervisionato alla rete è quello di rendere il modello equivariante alle trasformazioni che quest'ultimo applica ai dati di input, avendo quindi più informazioni sulle classi che si vogliono imparare. Ecco che questi tasks saranno meno soggetti al cosìddetto fenomeno del forgetting e le performance sul task principale, che in questo studio sarà la classificazione di immagini, miglioreranno.
|
Abstract
In any field of study in which artificial intelligence is employed, such as voice recognition, detection and classification of people, autonomous driving, or in any application where the task to be completed requires the processing of the available information in order to make a decision, there we need computers to be able to reach and possibly exceed the capabilities of human intelligence. The main characteristic of the human brain that we would like to emulate in a neural network lies precisely in the ability to accumulate knowledge throughout life, without forgetting what has been learnt. This is what the techniques of continual learning and multi-task learning investigated in this study deal with. In particular, the aim is to go beyond the traditional application scenario of machine learning, and work instead on classification problems whose available reference data are uncertain, unbalanced and not fully annotated. Typically, artificial neural networks are an essential resource for problems of this type, but the uncertainty of the reference data limits their applications in real-world scenarios. We will therefore investigate how to develop learning techniques that can operate with training data that are often only partially annotated, noisy and/or not independent and identically distributed. Self-supervised learning techniques will be introduced in the form of pretext tasks, to be added to the network's main task. These techniques will allow the network to deduce the correct labels corresponding to the input data and learn their implicit structures in the process. In this case, the desired effect of applying a given self-supervised learning task to the network is to make the model equivariant to the transformations it applies to the input data, thus having more information about the classes to be learned. Here, these tasks will be less prone to the so-called forgetting phenomenon and performance on the main task, which in this study will be image classification, will improve.
|