verso-un-etica-dell-algoritmo

Verso un’etica dell’algoritmo

Antonello Soro, presidente dell’Autorità garante per la protezione dei dati personali, mette in guardia da uno sviluppo incontrollato dell’intelligenza artificiale. A rischio non c’è solo la nostra privacy, ma soprattutto la nostra libertà

“Dio è il primo tecnico, la tecnica è l’ultimo dio”. Antonello Soro, presidente dell’Autorità Garante per la protezione dei dati personali, cita Emanuele Severino per esorcizzare il rischio di un uomo che diventi strumento delle sue stesse invenzioni. L’occasione è un convegno che il Garante ha organizzato in occasione della Giornata europea della protezione dei dati personali. Sono passati poco più di 35 anni dal 27 dicembre 1982, quando il Time decise di dedicare al computer la copertina indicandolo come “persona dell’anno”. Per Soro un passaggio simbolico che oggi sta diventando sempre più attuale. “Il pericolo del futuro è che gli uomini diventino robot”, dice citando Erich Fromm. Se prima di internet già si vedevano i primi semi di questo pericolo, ora con l’intelligenza artificiale tutto sembra più attuale. “Il digitale è un agente potentissimo di trasformazione sociale, la cornice entro cui si svolge ogni espressione dell’uomo. Con internet la tecnologia si è fatto ecosistema, con implicazioni che si estendono al lavoro, con inquietanti ripercussioni che coinvolgo la salute e la giustizia”, dice il garante.

Il corpo è una password

Il passaggio epocale all’era dell’intelligenza artificiale sembra ormai segnato. “Le decisioni – continua Soro - sembravano l'ultimo baluardo della razionalità umana”. Invece oggi l’uomo è sempre più disposto a delegare questo ruolo alle macchine. “Il 70% delle transazioni finanziarie è già realizzata con algoritmi” ricorda il presidente che mette in evidenza che con l’intelligenza artificiale stiamo affidando tutta la nostra persona: iride, reticolo venoso, impronte digitali fino ad arrivare all’e-skin, alla pelle digitale che rende il corpo stesso come una password che consentirà alla macchine di conoscere la nostra intimità. Uno scenario che porta il teologo Vito Mancuso a richiamare l’esempio dei deportati nei campi di concentramento, perché anche in quel caso quello che importava era un numero e nulla di più. “Finiremo così con l’essere sconosciuti a noi stessi, ma conosciuti a chiunque possa estrarre le nostre tracce presenti in rete grazie al nostro comportamento on line”, dice Soro. Su tutti incombe la massa di dati che sembra letteralmente travolgere l’umanità. Soro spiega che nel 2016 abbiamo generato tanti dati quanto l’intera storia fino al 2015, mentre tra dieci anni questa quantità raddoppierà ogni dodici ore. 

La sfida ai colletti bianchi

Le grandi compagnie puntano sui big data per aumentare i profitti e per questo si prevede che ci saranno computer con capacità più di mille volte superiori a quelli di oggi. Soro si schiera dalla parte di chi prevede una crisi occupazionale segno di quella che il presidente identifica come “la più radicale trasformazione sociale, antropologica e politica dalla fine della seconda guerra mondiale”. Non sarà crisi di tute blu, ma di colletti bianchi, di classe dirigente. Questo perché, spiega Soro, l’intelligenza artificiale è sempre più capace di autoapprendimento e autonomia. Per questo si attende una stagione di tensioni sociali a livello globale. “Nei prossimi dieci o massimo venti anni la metà dei lavori saranno fatti da macchine dotate di Ai”, dichiara con sicurezza il garante.

Il pericolo viene dai giocattoli

Presto ogni oggetto attorno a noi sarà connesso, favorendo la qualità della vita e liberandoci da tante incombenze quotidiane. Un processo da governare con lungimiranza altrimenti ne pagheremo le conseguenze. Così oggetti apparentemente innocui, come le bambole, nascondono insidie preoccupanti. Secondo Augusta Iannini, vicepresidente dell’Autorità, il 45% dell’IoT girerà attorno agli smart toys. Giocattoli con funzionalità avanzate, collegati alla rete internet, attivabili con gli smartphone dei genitori. Microfono, suoni, video, riconoscimento vocale, altoparlante per interagire con il bambino, geolocalizzatore per individuare i bambini. Da una parte i benefici, come la possibilità di potenziare le capacità di apprendimento dei propri figli, a partire dall’inglese. Con un prezzo da pagare: il venire meno della libertà, vivere in una dimensione di controllo. Non si tratta di ipotesi, perché la quasi totalità degli utenti di internet accetta le condizioni della privacy senza leggere. Così il pericolo entra in casa, sotto le forme buffe di un pupazzo che proprio per il suo basso costo non ha sistemi di sicurezza adeguati per fronteggiare attacchi hacker. “Stiamo sottovalutando la possibilità che attacchi informatici ai giocattoli possano rivelare nostri stili di vita e patologie. Per questo la normativa di protezione dati rappresenta una garanzia”, garantisce Soro che sfodera un altro dato impressionante: in venti anni 150 miliardi di sensori saranno in rete, un esercito pari a venti volte la popolazione mondiale. Così le aziende sono interessate ad avere queste informazioni. Comprese le compagnie di assicurazioni. Per Luisa Crisigiovanni, membro dell’esecutivo Beuc, le compagnie potrebbero aumentare i premi assicurativi se venissero a conoscenza di più dettagliate informazioni sui vita e sulla salute dei propri clienti. Mostra l’esempio di una bambola che invia all’azienda produttrice tutte le registrazioni fatte “parlando” con il bambino. Tutto previsto da un complesso contratto, che i consumatori sottoscrivono senza nemmeno leggere. 

Il futuro sarà un passato cristallizzato

L’intelligenza artificiale è appena nata eppure c’è già chi non si fida. “Gli algoritmi sono opinioni umane strutturate in forma matematica e riflettono le precompresioni di chi le progetta o le serie storiche assunte a riferimento, con il rischio di cristallizzare il futuro con il passato, leggendo il futuro sugli schemi del passato, con relazioni necessariamente”, sottolinea Soro che porta l’esempio di algoritmi sul calcolo del rischi di recidiva penale, inclini ad assegnare un tasso maggiore ai neri che ai bianchi, solo sulla base di una serie storica. “Tecnologie che dovrebbero assicurare la massima terzietà rischiano di essere più razzisea o antistoriche della pur fallibile razionalità dell’uomo” dice il presidente. Detto altrimenti, le menti fatte di chip non saranno più eque delle menti fatte di neuroni. Con una aggravante messa in evidenza dal garante: “le modalità di decisione algoritmiche non sono nemmeno conoscibili”. 
Soro cita Dominique Cardon: il 95% degli internauti si concentra sullo 0,03% dei contenuti online per effetto la gerarchizzazione delle notizie dei motori di ricerche. “I criteri usati sono desunti dal nostro comportamento online, quindi tutt’altro che oggettivi. Rispecchiano la nostra identità. Prendono informazioni del passato e l’algoritmo rafforza le nostre opinioni e ci trasforma in schiavi digitali, indebolendo l’etica del dubbio”, dice il presidente. Così rischiamo di diventare sempre più intolleranti verso le differenze. Un paradosso, perché al contrario la rete dovrebbe favorire il confronto. I motori di ricerca possono così essere strumenti per manipolare politicamente il consenso dei cittadini, redendo più appetibili alcuni contenuti rispetto ad altri. Per Soro occorre quindi “un’etica per l’algoritmo da strutturarsi nel rispetto dei principi di dignità e non discriminazione. Una sfida culturale. “Per sfuggire al determinismo dell’algoritmo, occorre che fin dalla progettazione ci sia il rispetto della libertà e dell’autonomia delle scelte dell’uomo. Il limite va cercato nella dignità dell’uomo, il presupposto è la tutela dei dati personali” dice il garante che conclude: “se la tecnica si umanizza, il diritto alla protezione dei dati rappresenta un presupposto”.