Riassunto analitico
La presente ricerca si propone di analizzare i sistemi d'arma autonomi sotto il profilo del diritto internazionale umanitario (DIU), approfondendo le caratteristiche proprie di tali sistemi, dell’intelligenza artificiale e degli algoritmi. L’analisi si sviluppa considerando la diffusione globale di queste tecnologie, le questioni etico-giuridiche emergenti e le posizioni assunte dagli Stati, dalle Nazioni Unite e dall’Unione Europea. Un focus specifico è dedicato alla compatibilità dell’uso delle armi autonome con i principi fondamentali del DIU, quali il principio di necessità militare, il principio di proporzionalità e il principio di distinzione. In relazione alla necessità militare, si valuta se tali sistemi siano in grado di determinare autonomamente il raggiungimento del vantaggio militare e se il loro utilizzo possa condurre ad abusi volti ad aggirare i limiti imposti dal rapporto tra vantaggio militare e principio di umanità. L’analisi del principio di distinzione si focalizza sulla capacità delle armi autonome di distinguere tra la popolazione civile, i beni a essa appartenenti e gli obiettivi militari, in conformità con l’articolo 48 del I Protocollo Addizionale. Particolare attenzione è dedicata al funzionamento degli algoritmi che regolano questi sistemi, valutando in che modo il processo di apprendimento profondo (deep learning) consenta loro di acquisire e applicare tale distinzione. A tal fine, vengono esaminate le potenzialità e le criticità delle tecnologie di riconoscimento biometrico e facciale, con particolare riferimento all’utilizzo dell’Automatic Target Recognition System. Inoltre, si approfondiscono le difficoltà operative che possono insorgere in condizioni di visibilità ridotta, nonché le problematiche legate alla presenza di dual-use objects o hors de combat. Con riferimento agli articoli 51 e 57 del I Protocollo Addizionale si propone una riflessione circa la possibilità, da parte delle armi autonome, di apprendere la regola della proporzionalità da applicare all'interno di un conflitto armato. Inoltre, ci si sofferma sull’eventualità di imporre il requisito di un controllo umano significativo per prevenire attacchi indiscriminati o sproporzionati, come proposto dalla maggioranza degli Stati dinanzi al Segretario generale delle Nazioni Unite. Infine, la ricerca valuta la possibilità di impiego, nel breve termine, di sistemi completamente autonomi nei conflitti armati, affrontando le complesse questioni legate alla responsabilità giuridica in caso di violazioni del DIU. Si analizzano le possibili attribuzioni di responsabilità agli Stati, agli individui, ai superiori gerarchici, nonché ai fabbricanti e ai programmatori di tali armi, considerando le difficoltà nel determinare chi debba essere ritenuto giuridicamente responsabile per eventuali impieghi non conformi al diritto internazionale umanitario.
|
Abstract
This research aims to analyze autonomous weapon systems from the perspective of international humanitarian law (IHL), examining the specific characteristics of these systems, artificial intelligence, and algorithms. The analysis considers the global spread of these technologies, emerging ethical and legal issues, and the positions taken by States, the United Nations, and the European Union.
A specific focus is dedicated to assessing the compatibility of autonomous weapons with the fundamental principles of IHL, including the principles of military necessity, proportionality, and distinction.
Regarding the military necessity, the study evaluates whether these systems can independently determine when military advantage has been achieved and when their use might lead to abuses aimed at circumventing the limits imposed by the relationship between military advantage and the principle of humanity.
The analysis of the principle of distinction is based on the ability of autonomous weapons to differentiate between civilian populations, their objects and the military targets, in accordance with Article 48 of the First Additional Protocol. Particular attention is given to the functioning of the algorithms governing these systems, assessing how deep learning processes enable them to acquire and apply this distinction.
In that sense, the research examines the potential and critical issues of biometric and facial recognition technologies, with particular reference to the use of the Automatic Target Recognition System. Additionally, it explores operational challenges that may arise in conditions of reduced visibility, as well as issues related to the presence of dual-use objects or hors de combat.
With reference to Articles 51 and 57 of the First Additional Protocol, the study reflects on the possibility for autonomous weapons to learn and apply the rule of proportionality in armed conflicts. Furthermore, it considers the potential requirement of significant human control to prevent indiscriminate or disproportionate attacks, as advocated by the majority of States in front of the UN Secretary-General.
Finally, the research assesses the short-term fulfillment of fully autonomous systems in armed conflicts, addressing the complex legal responsibility issues in cases of IHL violations. It analyzes the potential attribution of responsibility to States, individuals, commanding officers, as well as the manufacturers and programmers of such weapons, considering the challenges in determining who should be held legally accountable for any non-compliant use under international humanitarian law.
|