Incontro di esperti sui sistemi di armi letali autonome 
delle alte parti contraenti della Convenzione sull’interdizione 
o limitazione dell’uso di alcune armi convenzionali
che possono produrre effetti traumatici eccessivi o indiscriminati

 

Intervento dell’Arcivescovo Silvano Tomasi, 
Osservatore permanente della Santa Sede 
presso l’Ufficio delle Nazioni Unite 
e istituzioni internazionali a Ginevra (*)

 

Ginevra

Martedí, 13 maggio 2014

Per la proibizione di armi letali

 

 

 

 

Signor Presidente,

Mi permetta anzitutto di complimentarmi per la buona preparazione di questo importantissimo incontro, anche se il mandato è semplicemente quello di discutere, in un ambiente informale, le preoccupazioni emergenti riguardo alle nuove tecnologie, che non solo influirebbero sul modo di condurre la guerra, ma, cosa ancor piú importante, metterebbero anche in dubbio l’umanità delle nostre società, affidandosi a macchine per prendere decisioni sulla vita e sulla morte.

Nel 2013 questa Delegazione ha espresso la sua profonda preoccupazione in merito all’uso dei droni e alle gravi conseguenze etiche tanto per chi li utilizza quanto per le vittime.

Mentre in molti campi la tecnologia autonoma può di fatto dimostrarsi vantaggiosa per l’umanità, l’applicazione dell’autonomia alla tecnologia delle armi è ben diversa: cerca di porre una macchina nella posizione di decidere sulla vita e sulla morte. Ci preoccupano molto le tecnologie emergenti dei sistemi di armi autonome che possono essere spinte oltre le capacità di sorveglianza o di intelligence, fino a coinvolgere bersagli umani. Le buone intenzioni potrebbero essere l’inizio di una china scivolosa. Quando l’umanità si confronta con sfide grandi e importanti - dalla salute all’ambiente, dalla guerra alla pace - è molto piú opportuno prendersi del tempo per riflettere, basandosi sul principio di precauzione e adottare un atteggiamento ragionevole di prevenzione, piuttosto che avventurarsi in illusioni e sforzi controproducenti.

I sistemi di armi autonome, come ogni altro sistema di armi, devono essere esaminati e passare la verifica del diritto umanitario internazionale (DIU). Il rispetto del diritto internazionale, dei diritti umani e del DIU non è opzionale. La Santa Sede è dell’opinione che i sistemi di armi autonome hanno, come i droni, una grande mancanza, che non può essere colmata solo rispettando le regole del DIU. Per ottemperarvi, questi sistemi avrebbero bisogno di qualità umane delle quali sono intrinsecamente privi. Le conseguenze etiche di tali sistemi, se dispiegati e utilizzati, non possono essere ignorate, né sottovalutate.

La crescente tendenza alla disumanizzazione della guerra obbliga tutte le nazioni e le società a rivedere il loro modo di pensare. La prospettiva di sviluppare robot armati, progettati per puntare obiettivi umani, ha il potenziale di cambiare l’equazione fondamentale della guerra. Eliminare gli esseri umani “dal circuito” pone importanti interrogativi etici, soprattutto a causa dell’assenza di un coinvolgimento umano significativo nella presa di decisioni letali.

 

 

Signor Presidente,

Per la Santa Sede la domanda fondamentale è questa: davvero le macchine - ben programmate con algoritmi altamente sofisticati per prendere decisioni conformi al DIU sul campo di battaglia - possono sostituire gli esseri umani nelle decisioni sulla vita e la morte?

La risposta è no. Gli esseri umani non devono essere tolti dal circuito delle decisioni riguardanti la vita e la morte di altri esseri umani. Deve sempre esserci un significativo intervento umano in tali decisioni.

Le decisioni sulla vita e la morte esigono intrinsecamente che siano presenti qualità umane quali la compassione e il discernimento. Sebbene gli esseri umani imperfetti possano non applicare perfettamente tali qualità nella foga della guerra, esse non possono però essere né sostituite né programmate. Alcuni studi compiuti sulle esperienze dei soldati sostengono il fatto che gli esseri umani hanno un’avversione innata a togliere la vita, e che tale avversione può esprimersi in momenti di compassione e di umanità in mezzo agli orrori della guerra.

Programmare un “governatore etico” o una “intelligenza artificiale” per consentire ai sistemi di armi autonome di osservare tecnicamente il diritto bellico nei campi che riguardano la distinzione e la proporzionalità, anche se possibile, non è sufficiente. Resta sempre il problema fondamentale: la mancanza di umanità, la mancanza di un coinvolgimento significativo di esseri umani nelle decisioni relative alla vita e alla morte di altri esseri umani. La capacità umana di ragionamento morale e di presa di decisioni etica è piú di una mera raccolta di algoritmi. Nelle decisioni sulla vita e sulla morte, il fattore umano non può mai essere rimpiazzato.

È già estremamente complicato applicare le norme di distinzione e proporzionalità nel contesto della guerra. Distinguere combattenti da civili, o soppesare i vantaggi militari e la sofferenza umana, nella foga della guerra, non può essere ridotto a questioni tecniche di programmazione. L’intervento significativo da parte di esseri umani, con la nostra capacità unica di ragionamento morale, è assolutamente essenziale nel prendere tali decisioni.

A giustificare in parte lo sviluppo di tali armi potrebbe essere l’idea che “se non sviluppiamo noi queste tecnologia lo farà qualcun altro”. Lo sviluppo di complessi sistemi di armi autonome probabilmente è fuori dalla portata degli Stati piú piccoli o degli attori non statali. Tuttavia, una volta che questi sistemi saranno sviluppati dagli Stati piú grandi, non sarà troppo difficile copiarli. La storia dimostra che gli sviluppi nella tecnologia militare, dalla balestra ai droni, danno alla parte che li inventa un vantaggio militare temporaneo. L’inevitabile vasta proliferazione di questi sistemi di armi cambierà fondamentalmente la natura della guerra per l’intera famiglia umana.

Ridurre al minimo i rischi per le proprie forze è comprensibile e legittimo. Tuttavia, senza feriti o racconti dell’orrore da una parte, il costo politico interno di iniziare una guerra diventa meno rilevante. Ciò costituisce un significativo deterrente per un’azione militare eccessivamente affrettata, ed è un deterrente che non dovrebbe essere ignorato con leggerezza.

La tecnologia dei sistemi di armi autonome rende la guerra troppo facile ed elimina l’affidamento alle virtú dei soldati. Diversi esperti militari e professionisti, che considerano uccidere le persone una questione molto seria, sono profondamente preoccupati dall’idea di delegare tali decisioni a delle macchine. Ovviamente queste voci apprezzano il potenziale dei robot nell’aiutare a disinnescare bombe, evacuare feriti o controllare un teatro di battaglia, ma il loro potenziale di sostituire completamente i soldati sul campo continua ad essere per loro una grave preoccupazione.

Inoltre, delegare le responsabilità umane nel prendere decisioni a un sistema autonomo progettato per eliminare vite umane crea un vuoto di responsabilità che rende impossibile ritenere qualcuno sufficientemente responsabile delle violazioni del diritto internazionale compiute da un sistema di armi autonome.

Sono proprio queste preoccupazioni a esigere un approccio multilaterale nel mettere in discussione lo sviluppo e l’attuazione di sistemi di armi autonome. Come nel caso di azioni quali il Protocollo sulle armi laser che causano cecità, è imperativo agire prima che la tecnologia dei sistemi di armi autonome progredisca e proliferi, prima che queste armi trasformino in modo fondamentale la guerra in un affare ancora meno umanitario, ancor meno umano.

 

 

Signor Presidente,

Per concludere, è importante riconoscere che un coinvolgimento umano significativo è assolutamente essenziale nelle decisioni che riguardano la vita e la morte di esseri umani, che i sistemi di armi autonome non possono mai rimpiazzare la capacità umana di ragionamento morale, anche nel contesto della guerra, che lo sviluppo di sistemi di armi autonome in ultimo porterà a una vasta proliferazione delle stesse, e che lo sviluppo di sistemi di armi autonome complessi, che escludono l’attore umano dalla presa di decisioni letali, è imprevidente e può modificare in maniera irreversibile il modo di condurre la guerra, in una direzione meno umana, portando a conseguenze che non siamo in grado di prevedere, ma che comunque aumenteranno la disumanizzazione della guerra.

 

 

 

 

 

 

(*) Cfr. L’Osservatore Romano, ed. quotidiana, Anno CLIV, n. 111, 17/05/2014.

 

N.B. Si raccomanda la consultazione dei testi originali presso il sito della Santa Sede. È inoltre possibile richiedere i documenti presso il sito della Libreria .

 

 

 

 

 

 

I «droni killer» - Appunti sulle armi di ultima generazione (2014)