Argomenti trattati
L’esercito israeliano sta utilizzando un modello avanzato di intelligenza artificiale, chiamato Fire Factory, per selezionare gli obiettivi degli attacchi aerei e gestire altre operazioni logistiche.
Israele schiera l’intelligenza artificiale
L’impiego dell’IA rappresenta un cambiamento significativo nella guerra, introducendo un’arma tanto potente quanto invisibile. Secondo i funzionari israeliani, i programmi utilizzati si avvalgono di grandi serie di dati per prendere decisioni su obiettivi, attrezzature, carichi di munizioni e orari. Sebbene questi elementi possano sembrare di uso comune per gli addetti ai lavori, è importante considerare come il Governo raccolga tali informazioni. Dal 1967 quasi ogni aspetto della vita dei palestinesi, in Cisgiordania e a Gaza, è supervisionato dall’esercito israeliano. Come risultato della sua complessa infrastruttura, Israele ha raccolto una grande quantità di dati, che sono stati un carburante vitale per l’ascesa del settore tecnologico. Non a caso l’IDF è forse l’esercito tecnologicamente più avanzato del mondo. Molti dei principali dirigenti del Paese, inoltre, hanno iniziato proprio nelle unità di intelligence militare.
La raccolta dei dati
In tutti i territori palestinesi, Israele raccoglie e analizza dati provenienti da droni, filmati di telecamere a circuito chiuso, immagini satellitari, segnali elettronici, comunicazioni online ecc… Uno dei punti principali, tuttavia, è il fatto che la tecnologia bellica AI di Israele non sia soggetta a regolamentazione internazionale. L’esercito ha dichiarato che grazie all’intelligenza artificiale la selezione degli obiettivi per gli attacchi aerei e l’esecuzione dei raid possono essere condotti con una velocità senza precedenti.
I limiti dell’intelligenza artificiale
I funzionari israeliani aveva parlato pubblicamente dell’utilizzo dell’IA nell’ultima grande guerra a Gaza nel 2021. Senza dubbio lo sviluppo dei sistemi e le nuove tecnologie hanno dato un notevole contributo nel selezionare e distruggere gli obiettivi sul territorio. I sostenitori dell’intelligenza artificiale affermano che gli algoritmi avanzati possono superare le capacità umane e potrebbero aiutare le forze armate a ridurre al minimo le vittime. I critici invece mettono in guardia dalle conseguenze potenzialmente letali dell’affidarsi a sistemi sempre più autonomi. L’attacco a sorpresa di Hamas, del 7 ottobre, tuttavia, ha fatto luce su una falla nella tecnologia. L’incapacità, infatti, dell’IA di fornire un preavviso, rappresenta di fatto un fallimento dell’intelligence a cui ancora non si è riusciti a far fronte.