Nella guerra a Gaza il ruolo della tecnologia, dai social network all’impiego dell’intelligenza artificiale, è emerso in modo inedito rispetto al passato. Un ruolo che interroga l’Occidente direttamente: dall’Europa e i suoi tentativi di porre delle regole ai giganti del mondo tech, agli Stati uniti dove Silicon Valley è ormai un contropotere di fatto e una fonte di insostenibili pressioni sulle istituzioni. Ne abbiamo parlato con Marwa Fatafta, la responsabile per il Medio Oriente dell’associazione per i diritti digitali Access Now.

The Gospel, Lavender, Where’s Daddy sono i principali sistemi di Ia impiegati nella guerra a Gaza, la cui esistenza è stata rivelata dal magazine israeliano +972. Siamo testimoni della guerra in cui l’intelligenza artificiale sta venendo usata in modo più sistematico di quanto si fosse mai visto in precedenza?

L’impiego da parte di Israele di sistemi di Ia per condurre la guerra non è nuovo. Nel maggio 2021, il bombardamento durato undici giorni della Striscia di Gaza ha inaugurato l’impiego senza precedenti di queste tecnologie da parte dell’esercito israeliano, che all’epoca l’ha soprannominata «la prima guerra dell’intelligenza artificiale». Per decenni, Tel Aviv si è servita di Gaza come di un laboratorio a cielo aperto per sperimentare queste tecnologie distopiche, al di fuori dei confini di ogni regolamento o etica.

Quali saranno le conseguenze, considerando che sistemi di questo tipo sono soggetti a molte meno regole delle armi convenzionali? Inoltre, al di là dell’evidente distruzione che si è abbattuta su Gaza, è insita una nuova minaccia per tutti noi in questo impiego sistematico di armi basate sull’intelligenza artificiale?

Questi sistemi sono la quintessenza di tutto ciò che l’intelligenza artificiale ha di malvagio. Sono «faziosi», imprecisi, inaffidabili, e vengono impiegati per autorizzare decisioni che hanno conseguenze fatali per la vita e la dignità delle persone. La creazione di sistemi pensati per automatizzare omicidi e distruzione di massa in tempo di guerra pone un serio pericolo alla pace e alla sicurezza globali. Qualunque tecnologia Israele impieghi a Gaza non resterà lì. Come accade in ogni guerra nella Striscia, le tecnologie vengono poi esportate nel resto del mondo con la vidimazione di essere state già impiegate sul campo di battaglia. Significativamente l’«eminenza grigia» dietro la creazione di Lavender, l’ex capo dell’unità di intelligence 8200, ha espresso la sua visione per il futuro: rendere questi sistemi mainstream nella conduzione delle guerre. Invece dovrebbero essere messi al bando.

In un articolo sulla sorveglianza a Gaza, il New York Times svelava che Google Photos è impiegato come strumento di sorveglianza e database dalle unità di intelligence dell’esercito israeliano. Per loro ammissione, è l’applicazione più utile di tutte. E questo nonostante la policy di Google contro l’impiego delle proprie tecnologie per arrecare danno alle persone. Cosa dice questo del ruolo della Silicon Valley?

Big Tech sta giocando d’azzardo con il rischio molto serio di rendersi complice di un genocidio. In tempi come questi, le compagnie dovrebbero porre un’attenzione speciale alla valutazione e la riduzione del pericolo che le loro tecnologie e politiche possano contribuire, o essere colluse con abusi dei diritti umani e crimini atroci. Invece, aziende come Google e Amazon stanno traendo profitto dalla morte, continuando a fornire servizi di Ia e Cloud al governo israeliano, incluso il ministero della difesa. Google ha anche licenziato in massa i propri dipendenti che protestavano con il coinvolgimento della compagnia in un genocidio.

Lei ha scritto il report di Access Now sulla censura da parte di Meta (casa madre di Facebook e Instagram) delle voci palestinesi e filo palestinesi. Avete stabilito che l’algoritmo è stato cambiato per abbassare il livello di «tolleranza» nei confronti dei contenuti palestinesi ad appena il 25%. Una tendenza che precede il 7 ottobre, come rivelato da un’indagine di The Intercept sulle politiche di Facebook contro le organizzazioni e gli individui pericolosi (Doi).

Meta si affida notevolmente agli algoritmi per scovare e rimuovere i contenuti in violazione delle sue policy. Dal 7 ottobre, è stato osservato che la compagnia ha «armeggiato» con il suo sistema per abbassare il livello di certezza necessario per rintracciare e nascondere i «discorsi d’odio» nei commenti generati dalla Palestina. Significa semplicemente che gli algoritmi sono più zelanti nella rimozione di contenuti completamente innocui.

Allo stesso tempo, le piattaforme social pullulano di contenuti antisemiti e islamofobici. Com’è possibile?

È il cuore del problema. Mentre le piattaforme social censurano sistematicamente le voci palestinesi, consentono il propagarsi della propaganda di guerra, di discorsi d’odio e retorica genocidaria. Questo male non riguarda la sola questione palestinese, è il problema tout court della moderazione dei contenuti. Le scelte delle piattaforme sono guidate dal profitto e non dalla tutela della sicurezza e la libertà di parola di gruppi oppressi e marginalizzati.