Riassunto analitico
Negli ultimi anni le minacce informatiche sono aumentate in maniera esponenziale, rendendo necessarie lo sviluppo di tecniche avanzate per la protezione delle reti e sistemi. Nel contesto dei Network Intrusion Detection Systems (NIDS) l’introduzione di algoritmi di Machine Learning (ML) ha rappresentato un importante passo avanti, permettendo il superamento del rilevamento rispetto ai tradizionali approcci basati su firme statiche. Nonostante ciò i detector basati su ML presentano alcune limitazioni intrinseche, in primis analizzano i flussi di rete come entità isolate ignorando dunque le relazioni topologiche tra i flussi di rete faticando a rilevare attacchi sofisticati. Inoltre, risultano vulnerabili agli attacchi adversarial nel feature space, in cui gli attaccanti manipolano feature dei flussi per eludere il rilevamento. Recentemente, le Graph Neural Network (GNN) hanno cambiato il mondo della Network Intrusion Detection in quanto hanno dimostrato la capacità di sfruttare la struttura topologica dei dati rappresentati sottoforma di grafo. Questo approccio permette una migliore identificazione di attacchi distribuiti, sfruttando informazioni altrimenti ignorate dai metodi tradizionali. Tuttavia un aspetto fondamentale è quello relativa al verificare se le GNN siano effettivamente più robuste agli attacchi adversarial basati sulle feature. Questo lavoro di tesi si basa sull' analizzare un moderno approccio GNN-NIDS, discusso recentemente in letteratura ARGA, l'Adversarially Regularized Graph Autoencoder (ARGA), un modello che combina le tecniche di Graph Embedding con un approccio adversarial per generare embedding robusti che sono in grado di catturare sia le informazioni topologiche delle che quelle dei nodi del grafo. L’obiettivo del lavoro svolto è valutare se un sistema GNN-NIDS come quello ARGANIDS, sia vulnerabile agli attacchi adversarial, tecniche d'attacco che hanno lo scopo di manipolare in maniera mirata le feature del traffico di rete per ingannare il modello di detection e portarlo a commettere errori di classificazione. A tal fine, si è inizialmente valutato il modello su traffico “clean”, ossia dati di rete non alterati che rappresentano uno scenario standard di valutazione del modello e successivamente su traffico perturbato per misurare l’impatto delle manipolazioni delle feature sul modello di detection.
|