intelligenza-artificiale-unione-europea-verso-la-stretta

Intelligenza artificiale, Unione Europea verso la stretta

La commissione ha presentato una proposta per regolamentare l’utilizzo dell’innovativa soluzione tecnologica: si punta soprattutto a contrastare usi lesivi per i diritti fondamentali e la sicurezza dei cittadini. Nel mirino anche soluzioni di riconoscimento facciale, su cui hanno puntato l’indice anche la società civile e l'autorità di vigilanza del continente

L’Unione Europea prepara la stretta sull’intelligenza artificiale. La commissione europea ha infatti presentato una proposta di regolamento che mira a contrastare tutti gli utilizzi di questa innovativa tecnologia che, come si legge in una nota di Bruxelles, possano costituire “una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”. L’obiettivo è dunque quello di riuscire a conciliare lo sviluppo tecnologico con la salvaguardia dei cittadini.
“Oggi presentiamo nuove regole per un’intelligenza artificiale affidabile”, ha twittato la presidente della commissione europea Ursula von der Leyen. Queste norme, ha proseguito “stabiliscono standard elevati in base ai diversi livelli di rischio. L’intelligenza artificiale è una fantastica opportunità per l’Europa. E i cittadini meritano tecnologie di cui possono fidarsi”. Più netta la posizione di Margrethe Vestager, vice presidente della commissione e commissaria alla concorrenza. “Proponiamo deroghe molto ristrette, definite rigorosamente, limitate e regolamentate”, ha affermato. “Per l’intelligenza artificiale – ha proseguito – la fiducia non è facoltativa, è indispensabile”.


Diversi livelli di rischio

La proposta di regolamento, nello specifico, suddivide i possibili utilizzi dell’intelligenza artificiale sulla base dei diversi livelli di rischio. Al livello massimo, definito “inaccettabile”, si collocano usi che possono rappresentare una minaccia evidente alla sicurezza e ai diritti delle persone. È il caso, per esempio, di dispositivi di sorveglianza di massa, di sistemi di social scoring o applicazioni in grado di “manipolare le persone attraverso tecniche subliminali” o di sfruttare le vulnerabilità di soggetti particolarmente fragili, come bambini o disabili: tutti questi utilizzi saranno completamente vietati nel territorio dell’Unione Europea. “Non c’è spazio per la sorveglianza di massa nella nostra società”, ha commentato Vestager. Sotto si piazzano invece le cosiddette tecnologie “ad alto rischio”, ossia dispositivi non vietati in maniera netta ma comunque soggetti a una valutazione rigorosissima per garantire la tutela dei cittadini. Ne fanno parte, per esempio, sistemi di riconoscimento facciale, messi “in linea di principio” al bando ma utilizzabili in situazioni di particolare emergenza per scopi specifici, previo via libera di un organo giudiziario, come la lotta al terrorismo o la ricerca di un minore scomparso. Chiudono la classificazione le tecnologie a basso rischio, di cui fanno parte chatbot, assistenti vocali, filtri anti-spam e videogiochi sviluppati con sistemi di intelligenza artificiale.
La supervisione sugli utilizzi dell’intelligenza artificiale, come ha specificato Bruxelles, sarà molto rigorosa. Le violazioni saranno punite con sanzioni fino a 30 milioni di euro o, nel caso in cui si tratti di aziende, fino al 6% del fatturato complessivo.


Dubbi di società civile e istituzioni

La proposta è stata accolta con molto interesse dagli operatori del settore. Non tutti però sono convinti che il nuovo regolamento possa offrire le giuste garanzie alla popolazione. Secondo l’Hermes Center for Transparency and Digital Human Rights, per esempio, “la proposta si contraddice, permettendo alcune forme di sorveglianza biometrica di massa che però riconosce essere incompatibili con i nostri diritti fondamentali e con le libertà protette in Europa”. La proposta, nel dettaglio, lascerebbe ampi spazi di interpretazione e quindi libertà di utilizzo per aziende e governi. Sulla stessa linea si pone anche la European Digital Rights che, per bocca della sua senior policy advisor Sarah Chander, ha affermato che “il progetto di legge non proibisce il completo utilizzo di inaccettabili soluzioni di intelligenza artificiale e, in particolare, di sistemi di sorveglianza biometrica di massa”. Secondo il network, “tutto ciò genera un gap preoccupante per l’utilizzo di tecnologie di sorveglianza da parte di governi e società private”.
Netto anche il giudizio del garante europeo per la protezione dei dati personali. Pochi giorni dopo la pubblicazione della proposta di regolamento, l’autorità di vigilanza ha infatti affermato, senza mezzi termini, che i dispositivi di riconoscimento facciale dovrebbero essere vietati in tutta Europa per la loro intrinseca capacità di “intrufolarsi in maniera invasiva e non democratica” nella vita delle persone. Il garante europeo si è detto rammaricato che la commissione non abbia ascoltato il suo precedente invito a vietare il riconoscimento facciale negli spazi pubblici. "È necessario un approccio più rigoroso, dato che l'identificazione biometrica remota, in cui l'intelligenza artificiale può contribuire a sviluppi senza precedenti, presenta rischi estremamente elevati di intrusione profonda e non democratica nella vita privata degli individui".