il-nodo-della-sorveglianza

Il nodo della sorveglianza

Telecamere e software di riconoscimento facciale aprono nuove possibilità in materia di controllo e repressione di comportamenti criminali. Il rischio “Grande Fratello” resta tuttavia dietro l’angolo. E si intreccia a un livello di accuratezza che non appare ancora adeguato

Un emendamento al cosiddetto Sblocca Cantieri ha introdotto l’obbligo di installare telecamere di sicurezza in scuole d’infanzia e strutture di assistenza per anziani e disabili. L’obiettivo della norma, fortemente voluta da tutte le forze politiche, è chiaro: proteggere i soggetti più deboli dando vita a un ecosistema di sorveglianza che, spera il legislatore, possa dissuadere chiunque dal commettere abusi o maltrattamenti. La logica ricorda un po’ quella del panopticon. Con la differenza che il potere dissuasivo del carcere ideale di Jeremy Bentham risiedeva in una sorveglianza che era soltanto presunta, basata più sulla paura di essere osservati che sull’essere effettivamente sottoposti alla supervisione di un controllore. Ora invece la sorveglianza c’è ed è reale, affidata a strumenti di controllo che presumibilmente, dopo l’approvazione della legge, andranno ad allargare il parco di due milioni di telecamere che, secondo un’inchiesta de La Stampa, si contavano nel 2017 in Italia.

Il Grande Fratello della Cina
Il caso dell’Italia, per quanto significativo, non è tuttavia quello più eclatante. Senza dubbio più rumore ha fatto, a fine 2017, la notizia della rete da 176 milioni di telecamere dislocate su tutto il territorio della Cina, in grado di controllare una popolazione di 1,3 miliardi di persone. Altri 450 milioni di dispositivi, secondo alcune stime, verranno installati entro la fine del 2020.
La sorveglianza di massa in Cina è già un dato di fatto. E si intreccia a forti investimenti in tecnologie biometriche di riconoscimento facciale che potranno ulteriormente rafforzare il Grande Fratello del Dragone. Le possibili applicazioni sono tante. Il Wall Street Journal, per esempio, ha recentemente reso noto che i colossi Tencent e Alibaba stanno sviluppando sistemi di pagamento tramite riconoscimento facciale: il procedimento avviene attraverso dispositivi dotati di fotocamera che consentono di scansionare i dati biometrici dell’utente e confrontarli con quelli già in possesso dalle piattaforme di pagamento. Sempre basato sulle tecnologie di riconoscimento facciale è poi il progetto Social Credit System, iniziativa promossa dal governo cinese per sviluppare un criterio nazionale di classificazione della reputazione dei propri cittadini. Il programma prevede l’assegnazione di una penalità per ogni tipo di trasgressione, anche le più banali: al calare del punteggio sociale sono previste punizioni come il divieto di volo. Il progetto è al momento fermo alle battute iniziali, a progetti pilota come quello sviluppato a Shanghai dall’app Honest Shanghai che sfrutta proprio un software di riconoscimento facciale. Il governo ha previsto il lancio definitivo dell’iniziativa entro la fine del 2020.

La politica della sorveglianza
Le applicazioni principali riguardano tuttavia le strategie di controllo. In Cina è attualmente già attivo un database che potrà consentire, in un futuro nemmeno troppo lontano, di identificare in pochi secondi uno dei suoi 1,3 miliardi di abitanti. La tecnologia, stando alle parole del governo, verrà utilizzata per arrestare criminali e tenere sotto controllo potenziali terroristi. Resta tuttavia la preoccupazione che dispositivi per il riconoscimento facciale possano essere sfruttati anche per controllare dissidenti politici o minoranze etniche come quella musulmana degli uiguri, su cui negli ultimi mesi sono incrementate le misure di sorveglianza. Poche settimane fa, tanto per citare un caso, un’inchiesta condotta da alcune testati internazionali, fra cui anche Guardian, New York Times e Süddeutsche Zeitung, ha reso noto che i funzionari della polizia di frontiera cinese sono soliti installare un’applicazione sugli smartphone dei turisti diretti nello Xinjiang, regione del nord-ovest del Paese abitata principalmente dagli uiguri. L’app, stando alle rivelazioni dell’inchiesta, effettuerebbe una scansione dello smartphone per rilevare la presenza di contenuti collegabili non soltanto al terrorismo di matrice islamica, ma anche alle convinzioni politiche e religiose del proprietario.
La stessa politica della sorveglianza sarebbe operativa negli Stati Uniti. Nell’ottobre del 2016 uno studio del Georgetowm Law’s Center for Pricavy and Technology ha rivelato che nei database della polizia si troverebbero i dati biometrici di 117 milioni di persone adulte. I dati sarebbero utilizzati per comparare le immagini prodotte da dispositivi di sorveglianza o per identificare un sospettato.

I limiti della tecnologia
Un uso così massiccio delle tecnologie di sorveglianza pone inevitabilmente qualche interrogativo. Innanzitutto in materia di privacy, visto che molto spesso la raccolta, la conservazione e l’uso dei dati avviene senza il consenso esplicito dei titolari. E poi perché le tecnologie, per quanto sofisticate, presentano ancora un elevato margine di errore. Uno studio del Mit Media Lab ha per esempio rilevato una serie di inefficienze in Rekognition, il software di riconoscimento facciale di Amazon, legate al sesso e al colore della pelle del soggetto. La tecnologia non sbaglia mai quando deve identificare un uomo dalla pelle chiara, mentre presenta un margine di errore del 19% quando si trova davanti una donna e addirittura del 31% quando il soggetto è una donna di colore. Altro caso emblematico è poi quello del dispositivo di riconoscimento facciale utilizzato dalla Metropolitan Police di Londra. La forza di polizia della capitale britannica parla di un errore ogni mille casi: secondo i risultati di una ricerca indipendente, invece, ben quattro persone su cinque identificate dal dispositivo come possibili sospettati si sono alla fine rivelate innocenti. Il tasso di imprecisione si attesta all’81%. Troppo per una tecnologia che dovrebbe contribuire a tutelare l’ambiente in cui ci muoviamo. Ed è forse anche alla luce di questi dati che a maggio il consiglio comunale di San Francisco ha stabilito di vietare l’utilizzo di tecnologie di riconoscimento facciale da parte degli uffici cittadini.