Algoritmi di Guerra

0 0

In Italia se n’è parlato poco, troppo poco. Ma è una vicenda che merita attenzione perché apre uno squarcio su quello che il Washington Post ha definito il “terrificante mondo delle intelligenze artificiali usate a scopi militari”.Stiamo parlando di un’inchiesta pubblicata da due siti di informazione israeliani, poi rilanciata dal britannico Guardian. Ha svelato l’esistenza di un software  progettato con l’obiettivo di individuare “bersagli umani” nei bombardamenti su Gaza che nei primi sei mesi di guerra hanno provocato ben trentatremila vittime. In pratica all’algoritmo, gestito dall’esercito di Tel Aviv, è stato affidato un database con una lunghissima lista di potenziali miliziani palestinesi da uccidere. Quando le videocamere segnalavano la presunta presenza sul terreno di queste persone, ai militari restavano solo venti secondi per decidere se colpire o no. Facile capire che in molti casi si sia “proceduto in automatico” anche perché i soldati avevano ricevuto un ordine ben preciso “distruggete Hamas, a qualunque costo, bombardate tutto quello che potete”. A rivelarlo sono stati sei componenti dei servizi segreti le cui testimonianze sono state riportate da Yuval Abraham giornalista e documentarista israeliano, impegnato per la pace, già vincitore di un prestigioso premio al Festival del Cinema di Berlino. Il software, connesso a tutta una serie di operazioni di sorveglianza sugli abitanti della Striscia, era pensato per colpirli direttamente nelle loro case. C’era il rischio di ucciderne i familiari? Era calcolato pure questo, i “danni collaterali” messi nel conto, donne e bambini che fossero. Da ultimo merita attenzione il nome stesso del programma di IA progettato per guidare i bombardamenti. Si chiama Lavender, cioè lavanda, evoca pulizia e profumo, l’etimo richiama ciò che “deve essere lavato, ripulito”, sembra la lingua di Orwell oggi molto in voga nei conflitti che insanguinano il pianeta.

Ma questa problematica degli “algoritmi di guerra” ha dimensioni che vanno ben oltre Gaza. Poco prima di morire Henry Kissinger, uno dei protagonisti della politica estera degli Stati Uniti,  nel suo ultimo libro“L’Era dell’intelligenza Artificiale”, si è posto il problema degli arsenali nucleari delle grandi potenze. Se si affidano alle macchine i tempi di reazione a un presunto attacco che succede? Se lo è chiesto, invitando le grandi potenze a dialogare, adottare procedure, per evitare irreparabili disastri.

La questione ha enormi riflessi sul piano etico. Se ne è fatto interprete Papa Francesco presentando la Giornata della Pace del 2024 quando ha affermato che è grave motivo di preoccupazione “la ricerca nel settore dei cosiddetti sistema d’arma autonomi letali” che includono “l’utilizzo bellico dell’intelligenza artificiale”. Parole che avrebbero meritato maggiore attenzione dai media italiani. Per fortuna a livello globale, come abbiamo visto, c’è ben altra consapevolezza. Negli Stati Uniti sono uscite diverse inchieste sui rapporti delle grandi aziende Hi Tech col Dipartimento della Difesa e l’industria delle armi. Non mancano poi studi e ricerche che denunciano la assenza di una normativa giuridica a livello globale. E ci sono pure iniziative che partono dal basso, come quella del sito stopkillerrobots.org animato da un gruppo di giovani ricercatrici mobilitate per chiedere che le tecnologie siano usate per promuovere pace, crescita civile, diritti umani non per uccidere. In altre parole a chi ci domanda se abbiamo paura dei robot killer conviene rispondere che ne abbiamo molta di più degli umani che prima li progettano e poi li utilizzano.

(Da  Messaggero di Sant’Antonio)


Iscriviti alla Newsletter di Articolo21