afghanistan-dati-biometrici-in-mano-ai-talebani

Afghanistan, dati biometrici in mano ai talebani

La ritirata dell’esercito statunitense ha lasciato sul terreno strumenti che potranno essere utilizzati per identificare i cittadini che hanno collaborato con la coalizione internazionale. Un episodio che evidenzia la diffusione di questo genere di tecnologie in tutto il mondo (anche in Italia)

Lo scorso agosto i talebani hanno preso il controllo di Kabul. E hanno messo le mani sull’arsenale che l’esercito americano, nella rocambolesca e drammatica ritirata di questa estate, si sono lasciati alle spalle in Afghanistan dopo vent’anni di guerra. Il consigliere per la sicurezza nazionale Jake Sullivan ha confermato che i talebani si sono impossessati di un tesoro militare fatto di armi moderne e diversificate. Nelle mani dei talebani ci sarebbero ora carabine M4, fucili M16, veicoli da ricognizione Humvee, elicotteri Black Hawk e persino aerei d'attacco A-29 Super Tucano. “Tutto quello che non è stato distrutto è nelle loro mani”, ha detto alla Reuters un funzionario del dipartimento della Difesa degli Stati Uniti. E fra le cose che non sono andate distrutte, ci sarebbero anche dispositivi per il riconoscimento biometrico.
Un’inchiesta di The Intercept ha infatti affermato che il gruppo dei talebani si sarebbe impossessato di HIIDE, sigla per Handheld Interagency Identity Detection Equipment, un dispositivo in grado di raccogliere e conservare informazioni biometriche come scansioni dell’iride e impronte digitali, nonché dati biografici e personali. Il timore è che adesso questi dispositivi possano essere utilizzati per identificare i cittadini afghani che hanno collaborato negli ultimi anni con le forze della coalizione internazionale.


Dati biometrici come arma

Il dispositivo HIIDE, di per sé, non offre un vasto accesso ai dati biometrici della popolazione. Tuttavia, se combinato con le informazioni provenienti da altri database, può diventare un’arma in più nelle mani dei talebani. Un lungo articolo dell’Mit Technology Review ha evidenziato che il governo afghano ha negli anni disposto di numerosi database con informazioni biometriche e personali dei propri cittadini. Uno di questi, battezzato Afghan Personnel and Pay System (conosciuto anche con la sigla APPS) era stato lanciato nel 2016 per contrastare le frodi sugli stipendi dei cosiddetti ghost soldiers. Secondo il portale del Massachusetts Institute of Technology, il sistema avrebbe negli anni raccolto mezzo milione di informazioni su praticamente tutti i componenti dell’esercito e della polizia in Afghanistan. Tra i dati raccolti ci sarebbero informazioni personali come nome, data e luogo di nascita, indicazioni sui legami di parentela e persino ragguagli su eventuali specializzazioni militari e avanzamenti di carriera. Il tutto connesso a un numero unico identificativo che collega il singolo individuo al relativo profilo biometrico conservato presso il ministero degli Interni.
Non ci vuole molto a comprendere il timore del personale civile che è stato costretto a rimanere in Afghanistan. Anche perché i talebani hanno già dato prova di saper utilizzare questo genere di dispositivi. Nel 2016, per esempio, un gruppo armato tese un’imboscata a un convoglio di bus che si stava dirigendo a Kunduz. I talebani presero in ostaggio oltre 200 passeggeri e giustiziarono 12 persone, fra cui alcuni soldati afghani che stavano tornando dalle proprie famiglie. Alcuni testimoni dissero alla polizia che il gruppo armato aveva utilizzato un dispositivo per la scansione delle impronte digitali per identificare i passeggeri.


Sicurezza sempre più tecnologica

La notizia, oltre a definire in maniera più puntale i contorni della minaccia talebana, è emblematica di un approccio alla sicurezza divenuto negli anni, in tutto il mondo, sempre più tecnologico. L’esercito americano, com’è noto, ha recentemente stretto accordi con colossi dell’informatica per disporre di tecnologie sempre più avanzate. Nel 2019 uscì persino un rapporto del Pentagono che profetizzava l’arrivo di soldati cyborg. E più recentemente, nel 2020, un dispositivo di intelligenza artificiale è riuscito ad abbattere (virtualmente) un caccia da guerra.
Notizie di questo hanno negli anni sollevato crescenti proteste sulle conseguenze che potrebbe avere un apparato di sicurezza completamente digitalizzato. Eppure, passi indietro non sono stati fatti. Anzi, un recente rapporto del Government Accountability Office (Gao) degli Stati Uniti ha rivelato che 10 agenzie governative, su un totale di 24, si propongono di incrementare l’utilizzo di tecnologie di riconoscimento facciale entro il 2023. La maggior parte dei sistemi sarebbero di proprietà del governo federale, ma non mancano casi di appalti a società esterne come Cleraview AI, Vigilant Solutions e Acuant FaceID. A preoccupare l’opinione pubblica è soprattutto l’utilizzo che potranno fare le forze dell’ordine di questo genere di tecnologie. Da una precedente indagine del Gao è emerso che numerose agenzie impegnate nella pubblica sicurezza hanno fatto ricorso a dispositivi di riconoscimento facciale dopo le proteste promosse dal movimento Black Lives Matter e dopo l’assalto al Campidoglio. Lo scorso marzo Clearview AI ha reso noto che circa il 17% delle agenzie per la pubblica sicurezza avrebbe utilizzato il suo software.


Riconoscimento facciale in Italia

La novità sta rapidamente prendendo piede in tutto il mondo. E l’Italia non fa certo eccezione. Un lungo approfondimento de Il Post ha analizzato il progetto del comune di Udine di installare una serie di telecamere per il riconoscimento facciale nei pressi della stazione. Proposte simili sarebbero state ventilate anche a Roma e Torino, tutte con l’obiettivo dichiarato di incrementare la sicurezza dei cittadini in aree particolarmente degradate.
I punti critici non mancano. L’articolo ricorda innanzitutto che “il riconoscimento facciale attraverso i sistemi di videosorveglianza pubblici è illegale dopo un provvedimento del Garante della Privacy che il 26 febbraio intervenne per fermare un progetto del comune di Como”. I sistemi di riconoscimento facciale inoltre, per quanto sofisticati, non sono infallibili: evidenze sempre più frequenti hanno dimostrato che apparati di questo genere possono commettere errori e risultano attualmente inefficaci nell’identificare con accuratezza donne o persone di colore. A complicare ulteriormente il quadro c’è infine la proposta di regolamento presentata lo scorso maggio dalla Commissione Europea per regolamentare l’utilizzo dell’intelligenza artificiale: il testo afferma chiaramente che i sistemi di riconoscimento facciale possono essere utilizzati soltanto in situazioni di particolare emergenza, previa consenso dell’autorità giudiziaria, per scopi specifici come prevenire attacchi terroristici o cercare bambini scomparsi.