Armi. L’intelligenza artificiale “abbatte” un caccia pilotato da un uomo

Categoria: Estero

Negli Stati Uniti, durante una simulazione di dogfight, il combattimento aereo manovrato, un algoritmo ad intelligenza artificiale ha abbattuto per cinque volte il velivolo “pilotato” da un essere umano.

Paolo Mauri 23.8.2020 it.insideover.it per ilgiornale.it

Negli Stati Uniti, durante una simulazione di dogfight, il combattimento aereo manovrato, un algoritmo ad intelligenza artificiale ha abbattuto per cinque volte il velivolo “pilotato” da un essere umano.

Il 20 agosto scorso si è tenuta la “finale” di un concorso del Pentagono denominato AlphaDogfight Trials, facente parte del programma Air Combat Evolution di Darpa, l’agenzia statunitense per la ricerca tecnologica della Difesa.

Il programma ad intelligenza artificiale (Ia) risultato vincitore è quello della Heron Systems, azienda californiana che costruisce sistemi automatizzati per la Difesa. La Heron era stata selezionata lo scorso ottobre tra i finalisti del programma finanziato dal Pentagono, insieme a Aurora Flight Sciences, EpiSCI, Georgia Tech Research Institute, Lockheed Martin, Perspecta Labs, physicsAI e SoarTech.

La finalità del concorso è quella di esplorare l’automazione totale nel combattimento aria-aria oltre a migliorare la fiducia dell’essere umano nell’Ia.

“È facile farsi un’opinione sbagliata pensando che quanto raggiunto sia definitivo in qualche modo in merito al futuro del combattimento aereo manovrato, oppure che sia un brutto risultato” ha detto Justin Mock di Darpa, pilota di caccia e commentatore per le prove, a C4isrnet. “Da una prospettiva umana, dal mondo dei piloti di caccia, abbiamo l’abitudine di fidarci di ciò che funziona. E quello che abbiamo visto è che in quest’area limitata, in questo scenario specifico, abbiamo un’intelligenza artificiale che funziona”.

Il pilota umano, che vola sugli F-16, è un istruttore dell’Usaf che, per questioni di sicurezza, è rimasto anonimo fatto salvo per il suo nome di battaglia: “Banger”. Da quello che sappiamo, però, la prova che ha visto sconfitto l’uomo per ben cinque volte non è stata “ad armi pari”: l’intellingenza artificiale, infatti, aveva a disposizione tutte le informazioni possibili per compiere la missione, fattore che, sul campo di battaglia reale, non si attua mai.

L’algoritmo, quindi, avendo eliminato quella che in gergo viene definita “nebbia di guerra” ha potuto svolgere con successo la sua missione sebbene non siano mancati degli errori: durante le manovre di base del caccia si è allontanato dall’aereo nemico verso il punto in cui pensava che l’altro velivolo sarebbe andato, ma è comunque stato in grado di riprendersi a causa della capacità di mira superiore di Heron e dell’aereo concorrente pilotato dall’uomo che è caduto in errori simili.

Darpa, nonostante le condizioni particolari della simulazione e nonostante le conseguenti riserve del mondo militare, ha comunque riconosciuto che i risultati del combattimento aereo simulato sono solo il primo passo di un lungo viaggio per permettere all’Ia di affrontare un vero combattimento aereo. “L’intelligenza artificiale dimostra molte promesse. In passato è stato un successo o un fallimento” ha detto il colonnello Dan Javorsek, dirigente del programma per l’agenzia. “Nel più ampio programma Ace (Air Combat Evolution n.d.r.), il nostro piano è prendere il lavoro di modellazione e simulazione che stiamo svolgendo qui e trasportarlo dall’ambiente digitale al mondo reale”.

I risultati quindi appaiono incoraggianti, se pur vi si ancora tanto da fare, ma resta il fatto che si tratta della prima simulazione di combattimento aereo manovrato tipo Human-out-of-the-loop, ovvero col fattore umano totalmente escluso dalla gestione di un sistema di combattimento.

Attualmente esistono già sistemi d’arma con un certo livello di intelligenza artificiale che permette loro, ad esempio, di distinguere autonomamente il bersaglio principale, quello più pagante, oppure di effettuare variazioni di rotta o ancora di rimanere in “circuito di attesa” finché le condizioni del campo di battaglia siano propizie per un attacco. Si tratta di un settore fondamentale nella Difesa che diventerà sempre più essenziale per il predominio nello scenario delle guerre del futuro, e tutti i principali attori internazionali stanno lavorando alacremente in tal senso.

Esiste però un problema, espresso bene dall’astrofisico Stephen Hawking. Secondo lo scienziato britannico “l’avvento di una intelligenza artificiale super-intelligente potrebbe essere tanto la cosa migliore quanto la cosa peggiore mai successa all’umanità. Il vero rischio con l’Ia non è la cattiveria, ma la competenza. Un’Ia super – intelligente sarebbe molto efficace nel raggiungere i suoi scopi e se quegli scopi non sono in linea con i nostri sarà un problema”. Si apre quindi quello che è stato definito “dilemma Terminator” dal famoso film in cui un sistema ad intelligenza artificiale della Difesa, Skynet, divenuto autocosciente, decide di sbarazzarsi dell’umanità per poter essere certo della sua sopravvivenza lanciando un attacco atomico.

Si tratta di una questione che deriva da quella che è stata definita “singolarità tecnologica” ovvero il punto in cui il progresso tecnologico accelera così velocemente da oltrepassare le capacità di comprensione e previsione dell’uomo. Attualmente i livelli di Ia presenti non sono tali da aver raggiunto questo particolare punto di svolta, ma ci stiamo sempre più avvicinando al momento in cui una macchina deciderà autonomamente delle sorti dell’uomo senza che questo possa intervenire, a meno che non si scelga, a livello globale, di dotare sempre tali sistemi di una sorta di “back door” in grado di escludere l’Ia alla bisogna, ma il rischio che la stessa la escluda a sua volta rimane, oppure si potrebbe scegliere universalmente di mettere al bando tali sistemi, eventualità del tutto utopistica.