no-alla-guerra-dei-robot

No alla guerra dei robot

Dopo anni di moniti e allarmi, uno studio della Rand Corporation getta una luce sinistra sul possibile utilizzo dell’intelligenza artificiale in ambito bellico: algoritmi e sistemi autonomi potranno in futuro scatenare un conflitto nucleare

“Non so come sarà combattuta la terza guerra mondiale, ma posso dirvi cosa si userà nella quarta: pietre!”, sentenziò un giorno Albert Einstein. Oggi, a settant’anni da quel monito lanciato nel 1948, una risposta al dilemma del noto fisico tedesco forse c’è: intelligenza artificiale. L’allarme arriva da uno studio condotto dalla Rand Corporation, think tank statunitense specializzato in studi strategici, e realizzato all’interno del progetto Security 2040. Il nocciolo della questione è ben sintetizzato dal titolo scelto per il rapporto: Come potrebbe l’intelligenza artificiale influenzare il rischio di una guerra nucleare?
Se il come resta dunque un’incognita, la domanda sottostante appare quasi retorica: sì, l’uso di sistemi autonomi porterà a una sostanziale modifica della guerra per come la conosciamo oggi. E non tanto per l’utilizzo di robot killer di hollywoodiana memoria, quanto piuttosto perché l’intelligenza artificiale potrà comportare un sostanziale slittamento del paradigma di deterrenza nucleare.

Dalla Guerra Fredda agli algoritmi
Punto di partenza dello studio è proprio quell’equilibrio del terrore che si era venuto a creare negli anni della Guerra Fredda. E che è riuscito a garantire, fra corse agli armamenti e improvvise esplosioni di tensione, decenni di pacifica convivenza fra blocchi contrapposti. A qualsiasi attacco nucleare sarebbe corrisposta una reazione almeno uguale e contraria, che avrebbe comportato una pressoché certa mutua distruzione. È la teoria della cosiddetta mutual assured destruction, spesso conosciuta con l’acronimo inglese Mad: una sigla quanto mai azzeccata, visto che solo un pazzo (mad, appunto) avrebbe potuto mettere a repentaglio la sopravvivenza dei propri concittadini per sferrare un attacco nucleare a un Paese rivale.
Le macchine, invece, non possono impazzire. E anzi, con gli ultimi passi delle nuove tecnologie, stanno gettando le basi per sviluppare sempre più potenti e pervasive capacità di elaborazione. Il risultato, in un futuro nemmeno troppo lontano, sarà che algoritmi sempre più sofisticati saranno in grado di monitorare e analizzare quantità immense di dati e informazioni. Fino a fornire un quadro completo delle capacità di attacco e difesa del proprio avversario. Ecco allora che la minaccia di un attacco preventivo diventa reale: uno Stato, illuminato sui punti deboli di uno Stato rivale, potrà essere spinto a sferrare un attacco che possa annullare qualsiasi possibilità di una reazione. E addio al paradigma della deterrenza nucleare.

A un glitch dall’Armageddon
C’è poi un altro fatto: le macchine non impazziranno, ma sicuramente possono sbagliare. E se maneggiano armi nucleari, il rischio di un vero e proprio Armageddon è dietro l’angolo. Il mondo, forse senza neppure saperlo, ne ha già avuto prova nel settembre del 1983, quando il sistema satellitare sovietico rilevò cinque missili in arrivo da una base degli Stati Uniti. La procedura imponeva che, in caso di attacco, l’Unione Sovietica rispondesse immediatamente con un contrattacco nucleare su vasta scala contro i nemici occidentali. E così sarebbe avvenuto, se al computer non ci fosse stato Stanislav Petrov.
Tenente colonnello dell’Armata Rossa, Petrov sapeva che le apparecchiature sovietiche non erano poi così sofisticate. Inoltre, l’attacco appariva troppo esiguo per poter essere considerato una minaccia reale. Decise così di licenziare l’allarme come un errore di sistema, segnalando ai propri superiori come l’allerta fosse in realtà frutto di un malfunzionamento. Una scelta azzeccata, visto che in seguito si scoprì come alla base di tutto ci fosse un glitch, ossia un errore che aveva portato il sistema a scambiare dei riflessi solari per missili.
La domanda sorge spontanea: cosa sarebbe successo se al posto di Petrov ci fosse stato un dispositivo dotato di intelligenza artificiale? L’Armageddon nucleare potrebbe essere a distanza di un glitch.

I fronti della battaglia
Di guerra e intelligenza artificiale si parla da anni. Il mese scorso ha spento cinque candeline il progetto Campaign to stop killer robots, campagna globale che racchiude già nel nome la sua mission. Tante sono poi le iniziative che le Nazioni Unite hanno promosso negli anni per regolamentare (o anche bandire) l’uso dell’intelligenza artificiale in ambito bellico. Fronti aperti di una battaglia silenziosa che si sta combattendo adesso, per evitare che una battaglia di altro tipo possa essere combattuta in futuro. E che ha già fatto “vittime” illustri.
Circa 3.100 dipendenti di Google, stando alle indiscrezioni del New York Times, hanno recentemente scritto una lettera ai vertici della società per chiedere la cancellazione del Project Maven, progetto che il colosso del web starebbe mandando avanti con il Dipartimento della Difesa degli Stati Uniti per dotare i droni governativi di dispositivi capaci di analizzare e classificare le riprese effettuate.
Stessi toni anche nella lettera firmata da oltre 50 accademici, provenienti da più 30 paesi del mondo, e indirizzata al Korea Advanced Institute of Science and Technology: i firmatari hanno deciso di boicottare l’università coreana finché non interromperà la partnership con Hanwha Systems, compagnia specializzata nell’industria bellica.

Qualche speranza c’è
“A mio parere, la competizione fra Stati per la supremazia nel settore dell’intelligenza artificiale sarà la causa principale della terza guerra mondiale”, ha vergato lo scorso settembre su Twitter l’imprenditore Elon Musk. Eppure, nonostante tutti questi moniti, qualche speranza c’è. E risiede proprio nella capacità di elaborazione che potranno sviluppare le macchine nel prossimo futuro. L’auspicio, racchiuso in uno degli scenari della Rand Corporation, è che l’intelligenza artificiale possa comprendere a tal punto la minaccia nucleare da decidere di non utilizzarla. Un esito che, in buona sostanza, ricalcherebbe il finale di WarGames – Giochi di guerra, film del 1983 che ipotizzava l’imminente scoppio di una guerra nucleare per l’errore di un computer. “Strano gioco. L'unica mossa vincente è non giocare. Che ne dice di una bella partita a scacchi?”, dice il computer alla fine della pellicola, dopo aver realizzato che al termine di un conflitto nucleare non ci sarebbe stato nessun vincitore.