Riassunto analitico
La grande maggioranza dei sistemi odierni di Intrusion Detection Systems (IDS) prevede l'uso di tecniche di Machine Learning per classificare il traffico da analizzare. Questi sistemi riescono a raggiungere risultati molto buoni raggiungendo prestazioni elevate con un esiguo numero di falsi positivi. Tuttavia, recenti studi hanno dimostrato che tali algoritmi sono suscettibili ai cosiddetti "Adversarial Attacks": leggere perturbazioni che, pur modificando lievemente un sample in ingresso, permetterebbero di evadere il Detector. Difendersi da questo tipo di minaccia diventa quindi fondamentale nei sistemi di cyber security moderni. Il lavoro di questa tesi propone un metodo per migliorare le performance di IDS per contrastare Adversarial Attacks. In particolare si è sviluppato un sistema basato sul Reinforcement Learning che apprende a generare Adversarial Samples con un basso numero di interazioni con il Detector di base e con ridotte modifiche ai samples originali. Si è dimostrato sperimentalmente come l'adversarial training con samples provenienti dal sistema spiegato in precedenza migliori nettamente la capacità di contrastare Adversarial Attacks dell'IDS originale e, in generale, non peggiori le sue prestazioni in caso di traffico normale. I risultati ottenuti superano quelli dello stato dell'arte e sono stati ricavati da classificatori di tipo ensemble e deep learning allenati su tre dataset pubblici differenti. Sono inoltre stati confrontati i contributi di due diversi tipi di agenti di Reinforcement Learning: Deep Double Q-Network e SARSA.
|