Riassunto analitico
Il motivo principale per cui l'Intelligenza Artificiale (AI) si sta sempre più evolvendo nel 21esimo secolo è quello di aumentare la produttività e l'efficienza di qualsiasi compito effettuato dall'uomo, rendendo l'esecuzione pressoché automatica. L'allenamento di reti neurali del Deep Learning ha permesso di raggiungere obiettivi alti come adattabilità e la gestione di dati sempre più complicati che l'uomo fa fatica a coordinare. Con il passare degli anni, l'AI è stata inserita in diversi ambiti, tra cui settori tecnologici, automobilistici e sanitari. Nonostante ciò, l'AI può essere un punto di attacco per poter "ingannare" la rete neurale in base a diverse finalità. Gli Attacchi Avversari sono una classe di metodi utilizzati per condizionare modelli di deep learning, con l'obiettivo di generare risultati sbagliati di classificazione o di agevolare l'attaccante a bypassare eventuali norme di sicurezza informatica. Questi attacchi tendono a generare o modificare dati, la cui differenza dal dato originale è quasi impercettibile all'uomo. Negli ultimi 10 anni si cerca di trovare una soluzione innovativa a questi attacchi, rendendo la rete neurale più resistente. In questo lavoro, cercheremo di sfruttare anche lo scenario del Continual Learning, che ha l'obiettivo di evitare di dimenticare l'acquisizione d'informazioni imparate precedentemente appena un nuovo allenamento su un dataset diverso viene effettuato. I punti chiave di questo lavoro sono: mostrare come vari attacchi avversari operano, visualizzare alcune immagini avversarie, introdurre diverse nozioni su come concretizzare uno scenario di Continual Learning nell'AI; e se, utilizzando dati avversari come parte del dataset, sia possibile realizzare una rete neurale più robusta del solito.
|
Abstract
The main reason why Artificial Intelligence (AI) is evolving increasingly in the 21st century is to enhance the productivity and efficiency of any task performed by humans, making execution almost automatic. Training Deep Learning neural networks has enabled us to achieve goals such as adaptability and the management of complex data that humans struggle to handle. Over the years, AI has been employed in various domains, including technology, automotive, and healthcare. Nevertheless, AI can be a point of attack to "fool" the neural network for pursuing malicious purposes. Adversarial Attacks are a class of methods used to manipulate deep learning models, to generate incorrect classification results or facilitate the attacker in bypassing cyber-security vulnerabilities. These attacks tend to generate or modify data whose difference from the original data is almost imperceptible to the human. In the last 10 years, efforts have been made to find innovative solutions to these attacks, making the neural network more resistant. In this work, we will also leverage the scenario of Continual Learning, which aims to prevent catastrophic forgetting from happening i.e. forgetting previously learned information as soon as new training on a different dataset is conducted. The key points of this work are: to demonstrate how various adversarial attacks operate, display some adversarial samples, introduce different concepts on how to implement a Continual Learning scenario in AI, and explore whether using adversarial data as part of the dataset can create a more robust neural network than usual.
|