“Lavender”: l’intelligenza artificiale che dirige i bombardamenti israeliani a Gaza

+972 e Local Call rivelano come l’esercito israeliano abbia contrassegnato decine di migliaia di abitanti di Gaza come sospetti, utilizzando un sistema di targeting dell’intelligenza artificiale con poca supervisione umana e una politica permissiva per le perdite di vite.

di Yuval Abraham (*)

Nel 2021 è stato pubblicato in inglese un libro intitolato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” con lo pseudonimo di “Brigadier General Y.S.”
In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità d’élite dell’intelligence israeliana 8200 – sostiene la necessità di progettare una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “obiettivi” per attacchi militari nel pieno di una guerra.
Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per l’individuazione dei nuovi obiettivi che per il processo decisionale per l’approvazione degli obiettivi“.

Una macchina del genere, a quanto pare, esiste davvero.
Una nuova indagine di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, svelato qui per la prima volta.
Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra contro la Striscia di Gaza e hanno avuto un coinvolgimento diretto con l’uso dell’intelligenza artificiale per generare obiettivi per l’assassinio, Lavender ha svolto un ruolo centrale nei bombardamenti senza precedenti dei palestinesi, specialmente durante le prime fasi della guerra.
In effetti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente trattavano i risultati della macchina AI “come se fosse una decisione umana”.

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operativi nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di attentati.
Le fonti hanno detto a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è quasi completamente affidato a Lavender, che ha registrato fino a 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito diede un’ampia approvazione agli ufficiali per adottare le liste di uccisioni di Lavender, senza l’obbligo di controllare a fondo il motivo per cui la macchina aveva fatto quelle scelte o di esaminare i dati grezzi dell’intelligence su cui si basavano.
Una fonte ha dichiarato che il personale umano spesso serviva solo come “timbro di gomma” per le decisioni della macchina, aggiungendo che, normalmente, avrebbero dedicato personalmente solo circa “20 secondi” a ciascun bersaglio prima di autorizzare un bombardamento, solo per assicurarsi che il bersaglio contrassegnato con Lavender fosse maschio. Questo nonostante si sappia che il sistema commette quelli che sono considerati “errori” in circa il 10% dei casi, ed è noto per contrassegnare occasionalmente individui che hanno solo una vaga connessione con gruppi militanti, o nessuna connessione.

Inoltre, l’esercito israeliano ha sistematicamente attaccato gli individui presi di mira mentre erano nelle loro case – di solito di notte quando erano presenti tutte le loro famiglie – piuttosto che nel corso dell’attività militare.
Secondo le fonti, ciò era dovuto al fatto che, da quello che consideravano un punto di vista dell’intelligence, era più facile localizzare gli individui nelle loro case private.
Ulteriori sistemi automatizzati, tra cui uno chiamato “Where’s Daddy?” –  che riveliamo qui per la prima volta – sono stati utilizzati specificamente per rintracciare gli individui presi di mira ed effettuare attentati dinamitardi dopo che erano entrati nelle residenze delle loro famiglie.

 

Il risultato, come hanno testimoniato le fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone che non sono state coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto durante le prime settimane di guerra, a causa delle decisioni del programma di intelligenza artificiale.

Non eravamo interessati a uccidere gli operativi [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare“, ha detto A., un ufficiale dell’intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni“.

La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, nonché nelle pubblicazioni dell’esercito israeliano.
Una differenza fondamentale tra i due sistemi è nella definizione dell’obiettivo: mentre The Gospel segna gli edifici e le strutture in cui l’esercito sostiene che i militanti operino, Lavender segna le persone e le mette su una lista per le uccisioni.

Inoltre, secondo le fonti, quando si è trattato di prendere di mira i presunti militanti di minor livello contrassegnati da Lavender, l’esercito ha preferito utilizzare solo missili non guidati, comunemente noti come bombe “stupide” (in contrasto con le bombe di precisione “intelligenti”), che possono distruggere interi edifici sopra i loro occupanti e causare vittime significative.
Non si vogliono sprecare bombe costose per persone insignificanti, è molto costoso per il paese e c’è una carenza [di quelle bombe]”, ha detto C., uno degli ufficiali dell’intelligence.
Un’altra fonte ha detto di aver personalmente autorizzato il bombardamento di “centinaia” di case private di presunti giovani militanti contrassegnati da Lavender, e che molti di questi attacchi hanno ucciso civili e intere famiglie come “danni collaterali”.

Con una mossa senza precedenti, secondo due delle fonti, l’esercito ha anche deciso durante le prime settimane di guerra che, per ogni giovane agente di Hamas che Lavender avesse segnato, era permesso uccidere fino a 15 o 20 civili.
In passato, l’esercito non ha autorizzato alcun “danno collaterale” durante gli omicidi di militanti di basso rango. Le fonti hanno aggiunto che, nel caso in cui l’obiettivo fosse un alto ufficiale di Hamas con il grado di comandante di battaglione o di brigata, l’esercito in diverse occasioni ha autorizzato l’uccisione di più di 100 civili nell’assassinio di un singolo comandante.

La seguente indagine è organizzata secondo le sei fasi cronologiche della produzione altamente automatizzata di bersagli da parte dell’esercito israeliano nelle prime settimane della guerra di Gaza. Per prima cosa, spieghiamo la stessa macchina Lavender, che ha contrassegnato decine di migliaia di palestinesi usando l’intelligenza artificiale.
In secondo luogo, parliamo del sistema “Where’s Daddy?”, che tracciava questi obiettivi e segnalava all’esercito quando entravano nelle loro case di famiglia.
In terzo luogo, descriviamo come le bombe “stupide” siano state scelte per colpire queste case. In quarto luogo, spieghiamo come l’esercito abbia allentato il numero consentito di civili che potevano essere uccisi durante il bombardamento di un obiettivo.
In quinto luogo, notiamo come il software automatizzato abbia calcolato in modo impreciso la quantità di non combattenti in ogni famiglia.
E, sesto, mostriamo come in diverse occasioni, quando una casa veniva colpita, di solito di notte, il singolo bersaglio a volte non era affatto all’interno, perché gli ufficiali militari non verificavano le informazioni in tempo reale.

FASE 1: GENERAZIONE DEI TARGET

“Una volta che si passa all’automatico, la generazione bersaglio impazzisce”

Nell’esercito israeliano, il termine “bersaglio umano” si riferiva in passato a un alto agente militare che, secondo le regole dell’International Law Department dell’esercito, può essere ucciso nella sua casa privata anche se ci sono civili in giro.
Fonti dell’intelligence hanno detto a +972 e Local Call che durante le precedenti guerre di Israele, dal momento che questo era un modo “particolarmente brutale” per uccidere qualcuno – spesso uccidendo un’intera famiglia accanto all’obiettivo – tali obiettivi umani sono stati contrassegnati con molta attenzione e solo gli alti comandanti militari sono stati bombardati nelle loro case, per mantenere il principio di proporzionalità secondo il diritto internazionale.

Ma dopo il 7 ottobre – quando i militanti guidati da Hamas hanno lanciato un assalto mortale contro le comunità israeliane meridionali, uccidendo circa 1.200 persone e rapendone 240 – l’esercito, hanno detto le fonti, ha adottato un approccio radicalmente diverso. Nell’ambito dell'”Operation Iron Swords”, l’esercito ha deciso di designare tutti gli agenti dell’ala militare di Hamas come bersagli umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.

La nuova politica poneva anche un problema tecnico per l’intelligence israeliana.
Nelle guerre precedenti, al fine di autorizzare l’assassinio di un singolo bersaglio umano, un ufficiale doveva passare attraverso un complesso e lungo processo di “incriminazione”: verificare le prove che la persona era effettivamente un membro di alto livello dell’ala militare di Hamas, scoprire dove viveva, le sue informazioni di contatto e infine sapere quando era a casa in tempo reale. Quando l’elenco degli obiettivi contava solo poche decine di agenti di alto livello, il personale dell’intelligence poteva gestire individualmente il lavoro necessario per incriminarli e localizzarli.

Tuttavia, una volta che l’elenco è stato ampliato per includere decine di migliaia di agenti di rango inferiore, l’esercito israeliano ha capito di dover fare affidamento su software automatizzati e intelligenza artificiale. Il risultato, testimoniano le fonti, è stato che il ruolo del personale umano nell’incriminare i palestinesi come agenti militari è stato messo da parte, e AI ha fatto la maggior parte del lavoro. Secondo quattro delle fonti che hanno parlato con +972 e Local Call, Lavender – che è stato sviluppato per creare obiettivi umani nella guerra in corso – ha contrassegnato per l’uccisione circa 37.000 palestinesi come sospetti “militanti di Hamas”, la maggior parte dei quali giovani,  (il portavoce dell’IDF ha negato l’esistenza di una tale lista di uccisioni in una dichiarazione a +972 e Local Call).

Non sapevamo chi fossero gli agenti più giovani, perché Israele non li seguiva regolarmente [prima della guerra]”, ha spiegato l’ufficiale superiore B. a +972 e Local Call, illuminando il motivo dietro lo sviluppo di questa particolare macchina bersaglio per la guerra in corso. “Volevano permetterci di attaccare [gli agenti junior] automaticamente. Questo è il Santo Graal. Una volta che si passa all’automatico, la generazione bersaglio impazzisce“.

Le fonti hanno detto che l’approvazione per adottare automaticamente le liste di uccisioni di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio della guerra, dopo che il personale dell’intelligence ha controllato “manualmente” l’accuratezza di un campione casuale di diverse centinaia di bersagli selezionati dal sistema di intelligenza artificiale.
Quando quel campione ha scoperto che i risultati di Lavender avevano raggiunto un’accuratezza del 90% nell’identificare l’affiliazione di un individuo con Hamas, l’esercito ha autorizzato l’uso generalizzato del sistema. Da quel momento, le fonti hanno detto che se Lavender avesse deciso che un individuo era un militante di Hamas, gli sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza l’obbligo di verificare in modo indipendente il motivo per cui la macchina ha fatto quella scelta o di esaminare i dati grezzi dell’intelligence su cui si basa.

Alle 5 del mattino, [l’aeronautica] arrivava e bombardava tutte le case che avevamo segnato“, ha detto B. “Abbiamo fatto fuori migliaia di persone. Non li abbiamo esaminati uno per uno: abbiamo messo tutto in sistemi automatizzati e non appena uno degli individui contrassegnati era a casa, diventava immediatamente un bersaglio. Abbiamo bombardato lui e la sua casa“.
È stato molto sorprendente per me che ci sia stato chiesto di bombardare una casa per uccidere un soldato semplice, la cui importanza nei combattimenti era così bassa“, ha detto una fonte a proposito dell’uso dell’intelligenza artificiale per contrassegnare presunti militanti di basso rango. “Ho soprannominato quegli obiettivi ‘bersagli spazzatura’. Eppure, li ho trovati più etici degli obiettivi che abbiamo bombardato solo per ‘deterrenza’ – grattacieli che vengono evacuati e abbattuti solo per causare distruzione“.

I risultati mortali di questo allentamento delle restrizioni nella fase iniziale della guerra furono sbalorditivi. Secondo i dati del ministero della Sanità palestinese di Gaza, su cui l’esercito israeliano ha fatto affidamento quasi esclusivamente dall’inizio della guerra, Israele ha ucciso circa 15.000 palestinesi – quasi la metà del bilancio delle vittime finora – nelle prime sei settimane di guerra, fino a quando il 24 novembre è stato concordato un cessate il fuoco di una settimana.

 

“Più informazioni e varietà ci sono, meglio è”

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni persona in particolare sia attiva nell’ala militare di Hamas o della Jahad Islamica Palestinese (PIJ). Secondo le fonti, la macchina dà a quasi ogni singola persona a Gaza un punteggio da 1 a 100, esprimendo quanto sia probabile che siano militanti.

Lavender impara a identificare le caratteristiche di noti agenti di Hamas e PIJ, le cui informazioni sono state fornite alla macchina come dati di addestramento, e poi a localizzare queste stesse caratteristiche – chiamate anche “features” – tra la popolazione generale, hanno spiegato le fonti. Un individuo trovato in possesso di diverse caratteristiche incriminanti raggiungerà un punteggio elevato, e quindi diventa automaticamente un potenziale bersaglio per l’uccisione.

In “The Human-Machine Team”, il libro a cui si fa riferimento all’inizio di questo articolo, l’attuale comandante dell’Unità 8200 sostiene un tale sistema senza fare riferimento a Lavender per nome (anche il comandante stesso non è nominato, ma cinque fonti nell’8200 hanno confermato che il comandante è l’autore, come riportato anche da Haaretz.)
Descrivendo il personale umano come un “collo di bottiglia” che limita la capacità dell’esercito durante un’operazione militare, il comandante lamenta: “Noi [esseri umani] non possiamo elaborare così tante informazioni. Non importa quante persone hai incaricato di produrre bersagli durante la guerra, non puoi ancora produrre abbastanza bersagli al giorno“.
La soluzione a questo problema, dice, è l’intelligenza artificiale. Il libro offre una breve guida alla costruzione di una “macchina bersaglio”, simile nella descrizione a Lavender, basata su algoritmi di intelligenza artificiale e apprendimento automatico.
In questa guida sono inclusi diversi esempi delle “centinaia e migliaia” di funzionalità che possono aumentare la valutazione di un individuo, come essere in un gruppo Whatsapp con un militante noto, cambiare cellulare ogni pochi mesi e cambiare indirizzo frequentemente.

Più informazioni e più varietà, meglio è“, scrive il comandante. “Informazioni visive, informazioni cellulari, connessioni ai social media, informazioni sul campo di battaglia, contatti telefonici, foto“. Mentre gli esseri umani selezionano queste caratteristiche all’inizio, continua il comandante, nel tempo la macchina arriverà a identificare le caratteristiche da sola. Questo, dice, può consentire alle forze armate di creare “decine di migliaia di obiettivi”, mentre la decisione effettiva se attaccarli o meno rimarrà umana.

Il libro non è l’unica occasione in cui un alto comandante israeliano ha accennato all’esistenza di macchine per [la selezione di] bersagli umani come Lavender. +972 e Local Call hanno ottenuto il filmato di una conferenza privata tenuta dal comandante del centro segreto di Data Science e AI dell’Unità 8200, “Col. Yoav”, alla settimana dell’IA dell’Università di Tel Aviv nel 2023, di cui hanno parlato all’epoca i media israeliani.

Nella lezione, il comandante parla di una nuova, sofisticata macchina [per la selezione di] bersagli utilizzata dall’esercito israeliano che rileva “persone pericolose” in base alla loro somiglianza con le liste esistenti di militanti noti su cui è stato addestrato. “Usando il sistema, siamo riusciti a identificare i comandanti della squadra missilistica di Hamas”, ha detto il colonnello Yoav nella conferenza, riferendosi all’operazione militare israeliana del maggio 2021 a Gaza, quando la macchina è stata utilizzata per la prima volta.

Le diapositive della presentazione delle lezioni, ottenute anche da +972 e Local Call, contengono illustrazioni di come funziona la macchina: viene alimentata con dati su agenti di Hamas esistenti, impara a notare le loro caratteristiche e poi valuta gli altri palestinesi in base a quanto sono simili ai militanti.

Classifichiamo i risultati e determiniamo la soglia [alla quale attaccare un bersaglio]”, ha detto il colonnello Yoav nella conferenza, sottolineando che “alla fine, le persone in carne e ossa prendono le decisioni. Nell’ambito della difesa, eticamente parlando, abbiamo posto molta enfasi su questo. Questi strumenti hanno lo scopo di aiutare [gli ufficiali dell’intelligence] a rompere le loro barriere“.
In pratica, in qualunque modo, le fonti che hanno usato Lavender negli ultimi mesi dicono che l’azione e la precisione umana sono state sostituite dalla creazione e uccisione di bersagli di massa.

“Non c’era una politica di “zero errori”‘

B., un alto ufficiale che ha usato Lavender, ha fatto eco a +972 e Local Call che nella guerra in corso, gli ufficiali non erano tenuti a rivedere in modo indipendente le valutazioni del sistema di intelligenza artificiale, al fine di risparmiare tempo e consentire la produzione di massa di bersagli umani senza ostacoli.

Tutto era statistico, tutto era pulito, era molto secco“, ha detto B. Ha notato che questa mancanza di supervisione era consentita nonostante i controlli interni dimostrassero che i calcoli di Lavender erano considerati accurati solo il 90% delle volte. In altre parole, si sapeva in anticipo che il 10 per cento degli obiettivi umani destinati all’assassinio non erano affatto membri dell’ala militare di Hamas.
Ad esempio, le fonti hanno spiegato che la macchina Lavender a volte segnalava erroneamente individui che avevano modelli di comunicazione simili a noti agenti di Hamas o PIJ – tra cui operatori della polizia e della protezione civile, parenti di militanti, residenti che avevano un nome e un soprannome identici a quello di un operativo e abitanti di Gaza che usavano un dispositivo che un tempo apparteneva a un operativo di Hamas.

Quanto deve essere vicina una persona ad Hamas per essere affiliata all’organizzazione?“, ha detto una fonte critica dell’inesattezza di Lavender. “È un confine vago. Una persona che non riceve uno stipendio da Hamas, ma lo aiuta in ogni sorta di cose, è un operativo di Hamas? Qualcuno che era in Hamas in passato, ma che oggi non c’è più, è un operativo di Hamas? Ognuna di queste caratteristiche – caratteristiche che una macchina segnalerebbe come sospette – è imprecisa“.

Problemi simili esistono con la capacità delle macchine [per la selezione di] bersagli di valutare il telefono utilizzato da un individuo selezionato per l’uccisione. “In guerra, i palestinesi cambiano telefono continuamente“, ha detto la fonte. “Le persone perdono i contatti con le loro famiglie, danno il telefono a un amico o a una moglie, forse lo perdono. Non c’è modo di fare affidamento al 100% sul meccanismo automatico che determina quale numero [di telefono] appartiene a chi“.

Secondo le fonti, l’esercito sapeva che la minima supervisione umana in atto non avrebbe scoperto questi difetti. “Non c’era una politica di ‘zero errori’. Gli errori sono stati trattati statisticamente“, ha detto una fonte che ha utilizzato Lavender. “A causa della portata e dell’entità, il protocollo era che anche se non si sa con certezza che la macchina è giusta, si sa che statisticamente va bene. Quindi ci provi“.

Ha dimostrato il suo valore“, ha detto B., la fonte più anziana. “C’è qualcosa nell’approccio statistico che ti imposta su una certa norma e standard. C’è stata una quantità illogica di [bombardamenti] in questa operazione. Questo non ha eguali, nella mia memoria. E ho molta più fiducia in un meccanismo statistico di un soldato che ha perso un amico due giorni fa. Tutti lì, me compreso, hanno perso persone il 7 ottobre. La macchina lo ha fatto freddamente. E questo ha reso tutto più facile“.

Un’altra fonte dell’intelligence, che ha difeso la dipendenza dalle liste di uccisioni di sospetti palestinesi generate da Lavender, ha sostenuto che valeva la pena investire il tempo di un ufficiale dell’intelligence solo per verificare le informazioni se l’obiettivo era un alto comandante di Hamas. “Ma quando si tratta di un militante junior, non si vuole investire personale e tempo per lui“, ha detto. “In guerra, non c’è tempo per incriminare ogni obiettivo. Quindi sei disposto ad accettare il margine di errore di usare l’intelligenza artificiale, rischiando danni collaterali e civili che muoiono, e rischiando di attaccare per errore, e a conviverci“.

B. ha detto che la ragione di questa automazione era una spinta costante a generare più bersagli per le uccisioni. “In una giornata senza bersagli [con punteggio sufficiente per autorizzare un attacco], abbiamo attaccato a una soglia più bassa. Eravamo costantemente sotto pressione: ‘Portaci più obiettivi’. Ci hanno davvero urlato contro. Abbiamo finito di uccidere i nostri obiettivi molto rapidamente“.

Ha spiegato che quando si abbassa la soglia di valutazione di Lavender, si contrassegnano più persone come bersagli per gli attacchi. “Al suo apice, il sistema è riuscito a generare 37.000 persone come potenziali bersagli umani“, ha detto B. “Ma i numeri cambiavano continuamente, perché dipende da dove si imposta l’asticella di ciò che è un agente di Hamas. Ci sono stati momenti in cui un operativo di Hamas è stato definito in modo più ampio, e poi la macchina ha iniziato a portarci tutti i tipi di personale della protezione civile, agenti di polizia, sui quali sarebbe stato un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono in pericolo i soldati“.

Una fonte che ha lavorato con il team militare di data science che ha addestrato Lavender ha detto che anche i dati raccolti sui dipendenti del ministero della Sicurezza interna gestito da Hamas, che non considera militanti, sono stati inseriti nella macchina.
Ero infastidito dal fatto che quando Lavender è stato addestrato, hanno usato il termine ‘operativo di Hamas’ in modo approssimativo e hanno incluso persone che erano operatori della protezione civile nel set di dati di addestramento“, ha detto.

La fonte ha aggiunto che, anche se si crede che queste persone meritino di essere uccise, l’addestramento del sistema in base ai loro profili di comunicazione ha reso Lavender più propenso a selezionare i civili per errore quando i suoi algoritmi sono stati applicati alla popolazione generale. “Dal momento che si tratta di un sistema automatico che non viene azionato manualmente dagli esseri umani, il significato di questa decisione è drammatico: significa che stai includendo molte persone con un profilo di comunicazione civile come potenziali obiettivi“.

“Abbiamo solo controllato che l’obiettivo fosse un uomo”

L’esercito israeliano respinge categoricamente queste affermazioni.
In una dichiarazione a +972 e Local Call, il portavoce dell’IDF ha negato l’uso dell’intelligenza artificiale per incriminare gli obiettivi, affermando che si tratta semplicemente di “strumenti ausiliari che assistono gli agenti nel processo di incriminazione“. La dichiarazione continuava così: “In ogni caso, è necessario un esame indipendente da parte di un analista [dell’intelligence], che verifichi che gli obiettivi identificati siano obiettivi legittimi per l’attacco, in conformità con le condizioni stabilite nelle direttive dell’IDF e nel diritto internazionale“.

Tuttavia, le fonti hanno detto che l’unico protocollo di supervisione umana in atto prima di bombardare le case dei sospetti militanti “junior” contrassegnati da Lavender era quello di condurre un solo controllo: assicurarsi che l’obiettivo selezionato dall’IA fosse maschio piuttosto che femmina. L’ipotesi nell’esercito era che se l’obiettivo era una donna, la macchina aveva probabilmente commesso un errore, perché non ci sono donne tra i ranghi delle ali militari di Hamas e PIJ.

Un essere umano doveva [verificare il bersaglio] solo per pochi secondi“, ha detto B., spiegando che questo è diventato il protocollo dopo aver realizzato che il sistema Lavender stava “facendo le cose per bene” per la maggior parte del tempo. “All’inizio, abbiamo fatto dei controlli per assicurarci che la macchina non si confondesse. Ma a un certo punto ci siamo affidati al sistema automatico, e abbiamo solo controllato che [il bersaglio] fosse un uomo: questo è stato sufficiente. Non ci vuole molto tempo per capire se qualcuno ha una voce maschile o femminile“.

Per condurre il controllo maschio/femmina, B. ha affermato che nella guerra in corso, “investirei 20 secondi per ogni bersaglio in questa fase, e ne farei dozzine ogni giorno. Non fornisco alcun valore aggiunto come essere umano, a parte un timbro di approvazione. Ha risparmiato un sacco di tempo. Se [l’agente] si fosse avvicinato al meccanismo automatizzato, e avesse controllato se [il bersaglio] era un uomo, ci sarebbe stato il permesso di bombardarlo, subordinatamente a un esame dei danni collaterali”.

In pratica, le fonti hanno detto che ciò significava che per gli uomini civili contrassegnati per errore da Lavender, non c’era alcun meccanismo di supervisione in atto per rilevare l’errore. Secondo B., un errore comune si verificava “se l’obiettivo [di Hamas] dava [il suo telefono] a suo figlio, a suo fratello maggiore o semplicemente a un uomo a caso. Quella persona sarà bombardata nella sua casa con la sua famiglia. Questo accadeva spesso. Questi sono stati la maggior parte degli errori causati da Lavender“, ha detto B. (Continua)

(*) Tratto da +972 Magazine. Traduzione di Alexik.

Immagini:

1) Palestinesi trasportano i feriti e cercano di spegnere un incendio dopo un attacco aereo israeliano su una casa nel campo profughi di Shaboura nella città di Rafah, sud della striscia di Gaza, il 17 novembre 2023. (Abed Rahim Khatib/Flash90).
2) Palestinesi attendono di ricevere i corpi dei loro parenti uccisi in un attacco aereo israeliano, presso l’ospedale Al-Najjar a Rafah, nella parte meridionale della striscia di Gaza, il 24 ottobre 2023. (Abed Rahim Khatib/Flash90).
3) Palestinesi cercano di salvare i sopravvissuti e tirare fuori i corpi dalle macerie dopo che gli attacchi aerei israeliani hanno colpito edifici vicino all’ospedale dei martiri di Al-Aqsa a Deir al-Balah, nel centro di Gaza, il 22 ottobre 2023. (Mohammed Zaanoun/Activestills).
4) Palestinesi sul luogo di un attacco aereo israeliano a Rafah, nel sud della striscia di Gaza, il 24 febbraio 2024. (Abed Rahim Khatib/Flash90)
5) Diapositiva da una lezione del comandante dell’IDF Unit 8200’s Data Science and AI center presso l’Università di Tel Aviv nel 2023, ottenuta da +972 e Local Call.
6) Palestinesi sul sito di un edificio distrutto da un attacco aereo israeliano a Rafah, nella Striscia di Gaza meridionale, il 18 marzo 2024. (Abed Rahim Khatib/Flash90)
7) Case distrutte dai bombardamenti lungo la Striscia di Gaza. Foto Reuters.
***

alexik

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *