Iscriviti per ricevere aggiornamenti esclusivi sui contenuti.

Come l’esercito israeliano utilizza l’AI per uccidere a Gaza

Redazione da Redazione3 min. tempo di lettura

 

I media israeliani “+972” e “Local Call” hanno pubblicato un’indagine sull’AI Habsora utilizzato dall’IDF nella sua guerra a Gaza. Di seguito ampi stralci dell’ntervista che il redattore capo di “Local Call”. ha rilasciato a Courrier International

Courrier International: il 3 aprile, un’indagine congiunta di “+972 Magazine” e “Local Call” ha rivelato che, nella sua guerra a Gaza, l’esercito israeliano utilizza un sistema di intelligenza artificiale chiamato “Lavender”  (“Lavanda” in italiano). A cosa serve ?

Meron Rapoport, caporedattore di “Local Call”: L’esistenza dell’ AI Lavender (Lavanda, in italiano) è antecedente a questa guerra, ma per questa guerra, è stato perfezionato per rintracciare e uccidere decine di migliaia di sospetti membri di Hamas, di tutti i gradi, a volte anche senza legami diretti con l’ala militare dell’organizzazione,  alcuni facevano parte del governo civile di Gaza.

Inizialmente, [gli israeliani] hanno iniziato con una sorta di test: hanno raccolto informazioni su alcune centinaia di combattenti di Hamas e, sulla base dei loro dati, hanno chiesto alla macchina di identificare i palestinesi con dati simili a persone simili che poi sarebbero diventati potenziali bersagli per l’assassinio.

Sono finora 37.000 le persone designate come obiettivi a Gaza e, secondo le fonti dell’intelligence incontrate da Yuval Avraham [che ha firmato l’inchiesta], la parte di verifica umana, che deve garantire che la persona presa di mira sia effettivamente quella giusta, è ridotta al minimo, in alcuni casi non più di venti secondi, tanto che i militari incaricati di tale verifica hanno la sensazione di dover semplicemente ratificare la scelta della macchina.

 

Foto: Tra le rovine intorno all’ospedale Al-Chifa, nella Striscia di Gaza, il 3 aprile 2024. FOTO AFP

Questi obiettivi includono attivisti di secondo livello, non solo leader. Inoltre, l’esercito sa che il tasso di affidabilità del sistema è al massimo del 90%, e quindi che almeno il 10% degli obiettivi degli assassinii sono innocenti, non hanno svolto alcuna attività militare o addirittura non hanno nulla a che fare con Hamas o con la Jiad.

Secondo la nostra analisi: invece di prendere di mira obiettivi legittimi, l’esercito ha colpito nelle loro case tutti coloro che l’AI ha identificato come sospetti, a volte con 15 o 20 vittime collaterali innocenti. Ciò ha causato l’atroce crisi umanitaria che Gaza sta vivendo oggi.

Sulla base di quali dati vengono individuati questi target?

Non lo sappiamo con precisione, ovviamente. Ma, in un lavoro pubblicato nel 2021, l’attuale capo dell’unità di intelligence israeliana 8200  sostiene che questi dati possono includere messaggi WhatsApp sospetti, il luogo di residenza della persona,  i suoi parenti e associati, i suoi eventuali legami con altri combattenti o membri di organizzazioni militari.

In che modo l’uso dell’intelligenza artificiale rende questa guerra a Gaza diversa dalle campagne precedenti?

Dal numero di obiettivi, ovviamente. Già nel 2021, dopo la precedente campagna di Gaza, l’esercito aveva affermato che questa era la prima guerra in cui l’intelligenza artificiale aveva svolto un ruolo importante. Se ne vantava perfino. L’intelligenza artificiale potrebbe anche essere stata utilizzata prima, ma nel 2021 è una certezza. Quello che vediamo oggi è che il numero di 37.000 obiettivi è molto più alto. Di conseguenza, ad essere colpiti sono sempre più i civili e non più soltanto i membri di Hamas.

 

Clicca qui se vuoi altre notizie su “Comèilmondo”

 

Immagine di copertina: AI War, autore Rod Long

 

 

Cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ancora nessun commento

Precedente
L’alternativa al WiFi
Come l’esercito israeliano utilizza l’AI per uccidere a Gaza