l-intelligenza-artificiale-abbatte-virtualmente-un-caccia

L'intelligenza artificiale abbatte (virtualmente) un caccia

Un algoritmo sviluppato dalla Heron Systems ha sconfitto nettamente un esperto pilota di F-16 in una sfida virtuale promossa dalla Darpa. L'esperimento pone innovativi scenari nell'utilizzo delle nuove tecnologie in ambito bellico, ma anche tante incognite

In principio era stato DeepBlue contro Garry Kasparov. Poi vennero Watson contro i concorrenti del quiz televisivo Jeopardy!, AlphaGo contro Fan Hui e Pluribus contro Chris Ferguson. Adesso la storia della lotta fra l'uomo e l'intelligenza artificiale si arricchisce di un nuovo capitolo. Questa volta però, dopo gli scacchi, il go e il poker, il piano del confronto è decisamente meno ludico. Ed entra a pieno titolo nell'ambito della guerra.
Lo scorso agosto un algoritmo di intelligenza artificiale della Heron Systems, una società di software per la difesa del Maryland, ha battuto nettamente un esperto pilota di F-16 in un combattimento aereo virtuale. La sfida, promossa dalla Defense Advanced Research Projects Agency (Darpa) e intitolata AlphaDogfight Trials, prevedeva un primo confronto fra otto algoritmi sviluppati da società private e, successivamente, una finale fra il software vincitore e un pilota in carne e ossa. Contro tutti i pronostici, la piccola Heron Systems ha sbaragliato la concorrenza e si è aggiudicata un posto in finale superando nell'ultimo scontro un colosso della difesa come Lockheed Martin. Contro l'essere umano non c'è stata partita: l'intelligenza artificiale ha fatto cappotto, mettendo a segno un inequivocabile 5-0. Nulla ha potuto il pilota umano, conosciuto soltanto con l'identificativo radio di Banger, contro l'aggressività e la precisione dell'algoritmo di intelligenza artificiale che ha stupito tutti gli addetti ai lavori. “È un balzo da gigante”, ha commentato Justin Mock, esperto pilota della Darpa e commentatore della sfida, riecheggiando la famosa frase di Neil Armstrong nel suo primo passo sulla Luna. “Il Team Heron ha eliminato il pilota umano di F-16 dell'aeronautica militare senza alcun danno! Grande traguardo per la squadra! Che giornata!”, ha invece esultato la società su Facebook.

Un addestramento militare per l'intelligenza artificiale
L'euforia iniziale ha fatto rapidamente posto ad analisi più approfondite. Subito è emerso che le condizioni della simulazione non erano realistiche né, tantomeno, equilibrate. L'intelligenza artificiale, per esempio, disponeva di un set completo e corretto di informazioni. E il suo sfidante umano, fra l'altro diplomato istruttore presso la Usaf Weapons School, si è confrontato con un ambiente del tutto diverso da quello a cui era solitamente abituato: invece che nella classica cabina di pilotaggio, si è ritrovato in una postazione da videogame, con un visore per la realtà virtuale sul viso e una sorta di bastone per manovrare il suo velivolo virtuale. Il software di intelligenza artificiale, forse per la sua stessa natura (se così possiamo dire), ha avuto inoltre la possibilità di prendersi dei rischi che in un vero combattimento aereo simulato sarebbero considerati una violazione delle regole di addestramento. A tal proposito, Mock aveva previsto già prima dell'incontro che l'algoritmo “avrebbe tentato colpi che noi non faremmo mai durante un addestramento”.
Poste tutte queste premesse, resta il fatto che un software sviluppato nel giro di un anno è riuscito a superare un pilota con anni di esperienza. Matt Tarascio e Lee Ritholtz, rispettivamente vice president of artificial intelligence e chief architect of artificial intelligence della già citata Lockheed Martin, hanno sottolineato tutta la differenza che sussiste fra insegnare a un algoritimo a volare e addestrarlo per essere efficace in combattimento. “Non devi insegnare a un essere umano che non deve schiantarsi al suolo: ha già un istinto di base che non hanno invece gli algoritmi di intelligenza artificiale”, ha detto Ritholz. Tarascio ha paragonato l'esperienza col “mettere un bambino in una cabina di pilotaggio”. Il software di Heron Systems è stato addestrato con il cosiddetto deep reinforcement learning: l'algoritmo è chiamato a ripetere continuamente un'azione in un'ambiente virtuale e, sulla base della propria esperienza, apprende dagli errori fino a che non sviluppa una sorta di comprensione. Ben Bell, senior machine learning engineer di Heron Systems, ha detto che il loro algoritmo aveva superato quattro miliardi di simulazioni, arrivando ad acquisire l'equivalente di “dodici anni di esperienza”.

Verso la simbiosi uomo-macchina
Non è la prima volta che un algoritmo di intelligenza artificiale riesce a superare un essere umano in un combattimento aereo. Nel 2016 una dimostrazione aveva stabilito che il software Alpha avrebbe potuto battere un istruttore esperto. Tuttavia, come detto, si era trattato di una semplice dimostrazione. Questa volta il confronto è invece avvenuto in un vero e proprio torneo. E se anche, come visto, le condizioni non erano proprio realistiche, l'impresa costituisce comunque una nuova pietra miliare nello sviluppo dell'intelligenza artificiale. “Da una prospettiva umana, dalla prospettiva di un pilota da caccia, dobbiamo fidarci di ciò che funziona. E quello che abbiamo visto in questa area limitata, in questo specifico scenario, è che l'intelligenza artificiale funziona”, ha commentato Mock.
Maggiore ottimismo traspare dalle parole di chi ha promosso l'iniziativa. “Gli AlphaDogfight Trials sono stati un successo fenomenale: sono riusciti a realizzare quello che ci eravamo proposti di fare”, ha detto il colonnello Dan Javorsek, program manager dello strategic technology office della Darpa. “L'obiettivo – ha proseguito – era quello di guadagnare il rispetto di un pilota di caccia, e più in generale di tutta la comunità dei piloti di caccia, dimostrando che un'intelligenza artificiale può velocemente e efficacemente imparare le manovre di base di attacco e applicarle in un combattimento aereo virtuale”. Ancora più in là si è spinto Tim Grayson, director dello strategic technology office della Darpa. “Il risultato degli AlphaDogfight Trials dà grandi speranze per il futuro dei sistemi di combattimenti aerei e per lo sviluppo di concetti come la simbiosi uomo-macchina”, ha affermato. “Proviamo a pensare – ha aggiunto – a un essere umano seduto nella sua cabina di pilotaggio manovrata da uno di questi algoritimi di intelligenza artificiale come un vero sistema d'arma, in cui l'essere umano fa quello che riesce a fare meglio e l'intelligenza artificiale, alla pari, fa quello che le riesce fare meglio”.

Incognite dell'innovazione militare
Gli AlphaDogfight Trials, come ha confermato la stessa Darpa in una nota, sono stati progettati per stimolare ed espandere la base di sviluppatori di intelligenza artificiale che lavorano al programma Air Combat Evolution (Ace), progetto che mira ad automatizzare i combattimenti aerei e a generare fiducia nelle nuove tecnologie come primo passo verso una migliorata collaborazione fra uomo e macchina. Quella di una simbiosi uomo-macchina non è un'idea nuova per il sistema di difesa statunitense. Alla fine dello scorso anno, per esempio, era stato diffuso uno studio del Pentagono che profetizzava per il 2050 l'arrivo di quelli che erano letteralmente definiti “soldati cyborg”. La ricerca parlava di strumentazioni per migliorare le capacità visive e uditive, di sensori inseriti a livello sottocutaneo per stimolare il sistema muscolare, persino di impianti neurali per favorire la comunicazione fra persone e fra persone e macchine.
Tutto ancora nell'ambito della fantascienza, però la tecnologia negli ultimi anni ha saputo correre più velocemente dell'immaginazione. E allora viene naturale pensare che queste stesse tecnologie, oggi viste come un semplice supporto all'essere umano, possano evolvere così rapidamente da sostituire i soldati in carne e ossa nei teatri di guerra. Proprio per questo timore, pochi giorni prima dell'ennesima prova di forza dell'intelligenza artificiale, Human Rights Watch ha pubblicato un rapporto in cui chiede alla comunità internazionale un bando totale dei cosiddetti robot killer, ossia sistemi d'arma che individuano e colpiscono obiettivi senza alcun controllo umano. “Eliminare il controllo umano dall'uso della forza è comunemente visto come una grave minaccia all'umanità che, al pari del cambiamento climatico, necessita ora di un'azione rapida e multilaterale”, ha commentato Mary Wareharm, arms division advocacy director di Human Rights Watch e coordinatrice della Campaign to Stop Killer Robots. “Un bando internazionale è l'unico sistema efficace per fronteggiare le minacce generate dalle armi autonome”, ha spiegato. Nel 2018 era intervenuto sull'argomento anche Antonio Guterres, segretario generale dell'Onu, il quale aveva chiesto alla comunità internazionale di proibire sistemi d'arma che possano autonomamente individuare e colpire esseri umani, arrivando a definirli “moralmente ripugnanti e politicamente inaccettabili”. La maggior parte degli Stati, come si legge nel rapporto di Human Rights Watch, “ha espresso il desiderio di giungere a un nuovo accordo per mantenere il controllo umano sull'uso della forza”. Fra questi si contano anche 30 Paesi che hanno raccolto l'invito dell'ong e chiesto esplicitamente il bando delle armi completamente autonome. La strada resta tuttavia ancora lunga. “Un pugno di potenze militari, in particolare Russia e Stati Uniti, hanno fermamente rigettato la proposta di negoziare un nuovo protocollo della CCW (Convention on Certain Conventional Weapons, convenzione delle Nazioni Unite che mira a limitare o bandire l'uso di armi particolarmente pericolose per i civili e i militari, ndr) o un singolo accordo internazionale. All'ultimo incontro della CCW nell'agosto del 2019 – si legge nel rapporto – Russia e Stati Uniti si sono opposte nuovamente alle proposte di negoziare un nuovo trattato sui robot killer, definendo la mossa prematura”.