MELQUÍADES

Fonte: Global voices
Global voices Logo
CC BY 3.0
Articolo di A. Safa e Tactical Tech

Supremazia sistematizzata: le conseguenze della fede cieca nella tecnologia

La tecnologia può essere utilizzata per aiutare le persone, per danneggiarle, ma non è necessariamente una situazione a sé stante: può essere utilizzata contemporaneamente a beneficio di una persona o di un gruppo e a danno di un’altra persona o di un altro gruppo.

Mentre alcuni potrebbero chiedersi se i benefici dell’utilizzo dei dati personali per attuare politiche e azioni diffuse superino i danni, confrontare benefici e danni in questo approccio equilibrato, binario e bifronte è un modo fuorviante di valutarli criticamente, soprattutto quando i danni includono la violenza contro i civili. Dopotutto, la sofferenza umana non è mai giustificata e non c’è modo di edulcorare le ripercussioni negative in buona fede. L’ambivalenza tecnologica tenta di determinare i “vantaggi” o i “vantaggi” della tecnologia, il che è una distrazione, perché la tecnologia in sé non è buona o cattiva: riguarda gli esseri umani che la stanno dietro, i proprietari e gli operatori dietro le macchine. A seconda delle intenzioni e degli obiettivi di queste persone, la tecnologia può essere utilizzata per un’ampia varietà di scopi.

Mirino di controllo del fuoco avanzato Smart-Shooter | Unità portavoce dell’IDF | CC BY-SA 3.0

Lucrativo e letale

Israele utilizza i dati raccolti dai palestinesi per addestrare strumenti automatizzati basati sull’intelligenza artificiale, compresi quelli coprodotti da aziende internazionali, come la collaborazione tra l’israeliana Elbit Systems e l’indiana Adani Defence and Aerospace, che sono stati dispiegati a Gaza e in tutta la Cisgiordania israeliana potenziati dall’intelligenza artificiale. Gli strumenti di sorveglianza e lo spyware, tra cui Pegasus, Paragon, QuaDream, Candiru, Cellebrite, così come le armi basate sull’intelligenza artificiale, tra cui Smart Shooter e Lavender, sono famosi in tutto il mondo ed esportati in molti luoghi, tra cui il Sud Sudan e gli Stati Uniti.

Gli Stati Uniti stanno anche valutando l’utilizzo di tecnologie di riconoscimento facciale, sia autoctone che importate, al confine tra Stati Uniti e Messico per tracciare l’identità dei bambini migranti, raccogliendo dati che potranno utilizzare nel tempo. Eileen Guo del MIT Technology Review ha scritto: “Il fatto che questa tecnologia possa essere rivolta a persone a cui vengono offerte meno tutele della privacy rispetto ai cittadini statunitensi rientra nella più ampia tendenza a utilizzare persone provenienti dai paesi in via di sviluppo, siano essi migranti che giungono al confine o civili in zone di guerra, per contribuire al miglioramento delle nuove tecnologie”. Oltre al riconoscimento facciale, gli Stati Uniti stanno anche raccogliendo campioni di DNA di immigrati per un registro di massa presso l’FBI.

Nel 2021, le aziende con sede negli Stati Uniti Google e Amazon hanno firmato congiuntamente un contratto esclusivo da un miliardo di dollari con il governo israeliano per sviluppare il “Progetto Nimbus”, che avrebbe dovuto far progredire le tecnologie di rilevamento facciale, categorizzazione automatica delle immagini, tracciamento degli oggetti e analisi dei sentimenti per uso militare, una mossa che è stata condannata da centinaia di dipendenti di Google e Amazon in una coalizione chiamata No Tech for Apartheid.

L’esercito israeliano ha anche legami con Microsoft per strumenti di apprendimento automatico e archiviazione cloud. Questi esempi vengono qui citati per mostrare lo squilibrio di potere all’interno dei più ampi sistemi di oppressione in gioco. Questi strumenti e legami aziendali non sono accessibili a tutti i potenziali mecenati; sarebbe inconcepibile per Google, Amazon e Microsoft firmare gli stessi contratti con, ad esempio, il Movimento di Resistenza Islamico (Hamas).

Armi “intelligenti”, carburante da incubo

L’ex presidente degli Stati Uniti Barack Obama è accreditato per aver normalizzato l’uso di droni armati in contesti diversi dai campi di battaglia. L’amministrazione Obama ha descritto gli attacchi con i droni come “chirurgici” e “precisi”, a volte affermando persino che l’uso di droni armati non ha provocato “una singola morte collaterale”, quando ciò era palesemente falso. Da quando Obama è entrato in carica nel 2009, gli attacchi con i droni sono diventati comuni e si sono persino espansi nelle azioni internazionali degli Stati Uniti (in contesti di battaglia e non) delle amministrazioni successive.

I critici sostengono che l’uso dei droni in guerra conferisce ai governi il potere di “agire come giudici, giuria e boia da migliaia di chilometri di distanza” e che i civili “soffrono in modo sproporzionato” a causa di “una minaccia urgente al diritto alla vita”. In un esempio, la BBC ha descritto i droni russi come “cacciatori” di civili ucraini.

Nel 2009, Human Rights Watch ha riferito dell’uso di droni armati da parte di Israele a Gaza. Nel 2021, Israele ha iniziato a schierare “sciami di droni” a Gaza per localizzare e monitorare gli obiettivi. Nel 2022, Omri Dor, comandante della base aerea di Palmachim, ha dichiarato: “L’intera Gaza è ‘coperta’ da droni che raccolgono informazioni 24 ore su 24”. A Gaza, la tecnologia dei droni ha svolto un ruolo importante nell’aumento dei danni e degli obiettivi, inclusi droni ibridi come “The Rooster” e “Robodog” in grado di volare, librarsi, rotolare e arrampicarsi su terreni accidentati. I rover mitragliatori sono stati utilizzati per sostituire le truppe sul terreno.

Lo Smart Shooter, basato sull’intelligenza artificiale, il cui slogan è “un colpo, un successo”, vanta un elevato grado di precisione. Lo Smart Shooter è stato installato durante la sua fase pilota nel 2022 presso un posto di blocco di Hebron, dove rimane attivo ancora oggi. Israele impiega anche missili “intelligenti”, come lo SPICE 2000, utilizzato nell’ottobre 2024 per bombardare un grattacielo di Beirut.

L’esercito israeliano è considerato una delle 20 forze militari più potenti al mondo. Israele ha affermato di condurre “attacchi di precisione” e di non prendere di mira i civili, ma l’esperto di danni ai civili Larry Lewis ha affermato che le strategie israeliane di mitigazione dei danni ai civili sono state insufficienti, con le loro campagne apparentemente progettate per creare rischi per i civili. Le suddette tecnologie impiegate da Israele hanno aiutato i loro militari a usare una forza sproporzionata per uccidere in massa i palestinesi a Gaza. Come ha descritto un portavoce dell’IDF, “Ci concentriamo su ciò che causa il massimo danno”.

Sebbene le tecnologie basate sull’intelligenza artificiale riducano il numero di soldati sul campo e, di conseguenza, i potenziali feriti e vittime tra i militari che le impiegano, aumentano notevolmente le perdite di coloro che vengono presi di mira. L’esercito israeliano sostiene che i sistemi basati sull’intelligenza artificiale “abbiano ridotto al minimo i danni collaterali e aumentato l’accuratezza del processo guidato dall’uomo”, ma i risultati documentati raccontano una storia diversa.

La documentazione rivela che almeno 13.319 dei palestinesi uccisi erano neonati e bambini di età compresa tra 0 e 12 anni. I rapporti delle Nazioni Unite sulle vittime palestinesi sono considerati prudenti dai ricercatori, che stimano il vero bilancio delle vittime in un doppio o addirittura più del triplo. Secondo un rapporto: “I cosiddetti ‘sistemi intelligenti’ possono determinare l’obiettivo, ma i bombardamenti vengono effettuati con munizioni ‘stupide’ non guidate e imprecise perché l’esercito non vuole usare bombe costose su quelli che un ufficiale dell’intelligence ha descritto come ‘obiettivi spazzatura’”. Inoltre, il 92% delle unità abitative è stato distrutto a Gaza, così come l’88% degli edifici scolastici e il 69% delle strutture complessive di Gaza sono state distrutte o danneggiate.

Nel 2024, gli esperti delle Nazioni Unite hanno deplorato l’uso dell’intelligenza artificiale da parte di Israele per commettere crimini contro l’umanità a Gaza. Indipendentemente da tutte le informazioni di cui sopra, nello stesso anno Israele ha firmato un trattato globale sull’intelligenza artificiale sviluppato dal Consiglio d’Europa per la salvaguardia dei diritti umani. Vedere come Israele abbia ucciso un numero così elevato di palestinesi utilizzando strumenti basati sull’intelligenza artificiale e connessi a tecnologie di uso quotidiano, come WhatsApp, è visto da alcuni come un segnale di avvertimento di ciò che potrebbe accadere loro un giorno, ma è visto da altri come un modello per sistematizzare efficacemente supremazia e controllo.

Questo articolo sostiene che il problema non è solo la mancanza di supervisione umana sui dati e sugli strumenti di intelligenza artificiale; in realtà, chi raccoglie, possiede, controlla e interpreta i dati e quali siano i loro pregiudizi (impliciti o espliciti) è un elemento chiave per comprendere l’effettivo e il potenziale di danni e abusi. Inoltre, concentrarsi esclusivamente sulla tecnologia nel genocidio israeliano a Gaza, o in qualsiasi altra guerra, potrebbe rischiare di commettere un grave errore: assolvere i responsabili per i crimini commessi utilizzando la tecnologia. Quando si enfatizza eccessivamente gli strumenti, può diventare fin troppo facile ridefinire gli abusi intenzionali come errori commessi dalle macchine.

Quando si analizza l’uso della tecnologia in geopolitica e guerra, comprendere le strutture di potere è fondamentale per ottenere una visione d’insieme chiara. Individuare i “vantaggi” in usi ultra-specifici della tecnologia non serve a compensare gli “svantaggi”.

Per gli esseri umani le cui vite sono state rese più difficili e le cui condizioni sono state rese più disastrose dall’implementazione della tecnologia in ambiti di dominio, guerra e sistemi di supremazia, non c’è molto che possa essere razionalizzato in meglio. E lo stesso si può dire di altre entità che sfruttano i vantaggi (geopolitici, tecnologici o di altro tipo) per affermare il controllo su altri che si trovano in posizioni relativamente più svantaggiate e vulnerabili. Separare le applicazioni utili e dannose della tecnologia significa perdere di vista il quadro generale non solo di come la tecnologia potrebbe essere utilizzata in futuro, ma anche di come viene effettivamente utilizzata oggi.

Pubblicato da Global voices, da noi tradotto.

A. Safa

A. Safa

è un'analista dei media. È una palestinese di seconda generazione della diaspora.

Tactical Tech

Tactical Tech

è un'organizzazione internazionale creativa senza scopo di lucro con oltre due decenni di esperienza dedicata all'esplorazione degli impatti socio-politici e ambientali della tecnologia sulla società.