Le armi robotizzate creeranno un modo più giusto di fare la guerra? Secondo Amnesty International no

Amnesty International e “Stop killer robots”, un progetto di cui fanno parte 180 organizzazioni da 66 stati, lanciano una petizione per chiedere agli stati sostenere la creazione di una normativa internazionale che regoli l’utilizzo delle macchine assassine

killer robots
(unsplash)

Esistono numerose distopie sulle conseguenze devastanti che la società potrebbe ottenere sostituendo in ruoli importanti gli umani con i robot. Ma, nonostante la lungimiranza, evidentemente la realtà riesce a superare sempre la fantasia.

Da decenni i paesi che detengono le risorse belliche più importanti stanno sperimentando una modalità “pulita” di fare la guerra. L’automazione e l’intelligenza artificiale prendono il posto della trincea. Diversi stati, tra cui Russia, Israele e Stati Uniti che insieme a Cina, Corea del Sud, Australia, India, Turchia e Regno Unito stanno investendo parecchio denaro nello sviluppo di sistemi d’arma autonomi.

Il Regno Unito per esempio sta sviluppando un drone che può volare autonomamente, senza il controllo umano, ed identificare il bersaglio programmato. La Cina sta sviluppando e producendo droni molto piccoli, capaci di colpire ed identificare la vittima dalla temperatura corporea. La Russia ha costruito addirittura un carro armato robot.

Amnesty International, insieme a 180 organizzazioni mondiali, che fanno parte del progetto “Stop killer robots”, hanno chiesto agli stati di sostenere la possibilità di inserire una normativa internazionale per fermare l’uso delle armi robots. In questo modo si potrebbero contenere gli abusi e ridurre la possibilità di scenari apocalittici.

Il 2 dicembre il Gruppo degli esperti governativi della Convenzione delle Nazioni Unite sulle armi convenzionali si riunirà per decidere se avviare negoziati su una nuova normativa internazionale sui sistemi d’arma autonomi.

Francesco Vignarca, Coordinatore Campagne della Rete Italiana Pace e Disarmo, ha dichiarato: Abbiamo avuto un decennio di colloqui alle Nazioni Unite per discutere delle armi autonome e dei loro pericoli, ma questi scambi diplomatici sono sempre stati bloccati dagli stessi stati che stanno sviluppando le armi letali autonome. Ora è il tempo di agire, prima che il pericolo si concretizzi”.

Ma di quale pericolo si tratta? In fondo, si potrebbe pensare, potrebbe essere una modalità bellica più indolore, senza soldati coinvolti. Ma non esiste un modo “pulito” di fare la guerra, le vittime rimangono sempre umani. Anche se le macchine sono programmate da persone, si sottrae in questo modo la capacità di discernimento dell’essere umano, ed anche la possibilità di provare sentimenti quali paura e compassione.

Deumanizzare la guerra non la rende meno giusta, anzi, contribuisce a creare l’illusione che si possa ignorare ciò che sta accadendo, solo perché da questa parte del mondo, quella che le guerre le inizia sempre, non ci sono vittime.

Leggi anche: Parlare di salute con detenute e poliziotte, parte “Liberalamente”: un progetto dedicato alle donne dentro le carceri italiane

Leggi anche: “Il mondo dentro di me”, un Activate talk di Unicef per aiutare i giovani ad uscire dallo stigma del disagio psichico

Conclude Riccardo Noury, portavoce di Amnesty International Italia: “Rischiamo di finire in uno scenario da incubo, in cui droni e altre armi avanzate potranno individuare e attaccare obiettivi senza controllo umano. Permettere a delle macchine di prendere decisioni in materia di vita o di morte potrebbe causare violazioni gravissime delle leggi di guerra e dei diritti umani e intensificare la de-umanizzazione digitale della società, riducendo le persone a dati da processare”.

A questo link il Comunicato di Amnesty International datato il 2 novembre 2021