chatgpt-l-intelligenza-artificiale-e-i-rischi-per-la-privacy

ChatGpt: l’Intelligenza Artificiale e i rischi per la privacy

Il caso legato al software americano ChatGpt mostra come l’IA stia catalizzando l’interesse dividendo l’opinione pubblica per le sue infinite potenzialità di sviluppo, contrapposte però a numerosi rischi, come la sicurezza dei dati.

ChatGpt, acronimo di Generative pretrained transformer, è un modello di intelligenza artificiale realizzato da OpenAI di grandissimo successo, consistente in un chatbot attraverso il quale milioni di utenti hanno l'opportunità di conversare con un cervello elettronico. E come ogni innovazione realmente impattante ha aperto una serie di scenari che hanno spaccato l’opinione pubblica, circa i rischi e le opportunità che questa tecnologia potrebbe avere in futuro. Per quanto riguarda ChatGpt il primo intervento normativo è avvenuto proprio in Italia, quando il Garante della Privacy ha sospeso il servizio in tutto il Paese per violazione delle norme nazionali ed europee sul trattamento dei dati personali. Da qui una valanga regolatoria ha investito tutta Europa, aprendo una questione etica che divide di fronte alle nuove, inesplorate potenzialità dello sviluppo tecnologico dell’intelligenza artificiale. La discussione si apre di fronte ai vari profili di rischio che ChatGpt pone, come per esempio quello dei diritti di autore, da cui la macchina prende le informazioni che usa per informare il suo interlocutore, quelle legate alla mancata informativa per i minorenni, e soprattutto, quella riguardante il trattamento dei dati. Insomma, come spesso accade in occasione dell’avvento di nuove tecnologie, come avvenuto ad esempio con i sistemi basati su Dlt e blockchain, a fare da contraltare all’entusiasmo causato dalle possibilità future ci sono i rischi non calcolati che l’innovazione necessariamente porta con sé.

Violazioni alla protezione dei dati


In principio i fanali si sono accesi sull’azienda che produce l’IA, OpenAI, a causa di una perdita di dati (data breach), caso specifico in cui l’Autorità è tenuta a intervenire. Questo ha portato a un controllo più approfondito e ha condotto alla scoperta della fuga di dati, senza che ci fosse una base giuridica che giustificasse la la trasmigrazione e la massiccia conservazione di dati personali negli Stati Uniti, allo scopo di implementare il funzionamento degli algoritmi che stanno alla base del funzionamento della piattaforma di ChatGpt. Le motivazioni che hanno spinto il Garante della privacy a mettere in pausa l’intelligenza artificiale statunitense sono essenzialmente due. Da una parte è emerso che la politica di privacy della società prevede un trasferimento extraUe dei dati e, dal momento che non è noto il presupposto giustificativo, ChatGPT viola il regolamento generale sulla protezione dei dati (GDPR). Come si legge nel comunicato del garante per la protezione dei dati personali, “le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto”. Infine il Garante evidenzia come “l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a rischi non idonei al loro grado di sviluppo e autoconsapevolezza”. L’Autorità ha aperto un’istruttoria e la società OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Una disputa geopolitica


La sospensione di ChatGpt obbliga OpenAI, a rivedere il perimetro entro il quale avviene la protezione dei dati e apre una questione più corposa: quella delle dispute tra Europa e Stati Uniti in materia di privacy. Da tempo ai due lati dell’oceano Atlantico non si riesce a trovare un accordo sul trattamento dei dati personali: secondo la Corte di Giustizia europea la legislazione Usa in materia è troppo morbida e non conforme agli standard più alti imposti nel Vecchio continente. Per questo con la sentenza denominata Schrems II, ha infatti sancito l’invalidità dell’accordo Usa-Ue sulla protezione dei dati personali, il cosiddetto Privacy Shield. La funzione più popolare di ChatGpt, il chatbot, non viene utilizzato solo per chiacchiere, anzi, l’utilizzo più rilevante è quello legato ad ambiti di ricerca, creativi e intellettuali fino a quelli imprenditoriali e professionali, così come nel settore pubblico e nella pubblica amministrazione, il cosiddetto e-government. Dunque è facilmente intuibile come la mole di dati manovrati e assunti sia assolutamente ragguardevole e come alcuni di essi possano anche contenere informazioni strategiche e delicate.

Dati: il nuovo petrolio

L’importanza dei dati nel nuovo millennio è sempre più lapalissiana, tanto che molti li paragonano a una nuova forma di petrolio. Per questo per l’Europa è tanto importante proteggersi dai giganti, Usa da una parte e Cina dall’altra, attualmente più avanzati in ogni comparto tecnologico, in quella che può essere definita una forma di protezionismo 2.0. Nel caso specifico di ChatGpt la decisione del blocco è stata presa nell’ottica delle ampie ingerenze che hanno alcune agenzie statali americane, come la National Security Agency, già avvenute in passato, come nel caso Facebook Ireland o Schrems 1, dove il colosso della Silicon Valley era stato sorpreso a donare tutti i dati sensibili europei in pasto all’agenzia di sicurezza americana senza autorizzazione. Nell’ottica europea l’utilizzo dei dati in America non è regolamentato a sufficienza e non esiste ad oggi un accordo che possa considerarsi sufficientemente soddisfacente alla tutela dei dati dei cittadini europei. Per questo ogni tentativo di creare un canale facilmente accessibile e permeabile tra Usa e Ue in questo ambito è fallito, come il Security Shield, portato davanti alla Corte Europea dei diritti e annullato grazie alla storica sentenza Schrems 2, che prende il nome dell'attivista austriaco Max Schrems, fondatore del NOYB (European Center of Digital Rights), il quale si pronuncia negativamente anche sugli ultimi tentativi di aprire un varco atlantico dei dati, effettuati dal governo Biden, definendo bonariamente il tentativo non funzionale al cambiamento come “mettere molto rossetto sullo stesso maialino”.

Intelligenza Artificiale: si o no?

La questione in ogni caso dovrà risolversi per evitare che l’eccessivo laissez-faire e l’eccessiva regolamentazione in tema di dati impediscano un dialogo costruttivo e fondamentale, sia per gli Stati Uniti che per l’Unione Europea. In generale è da notare come la narrazione attorno all’Intelligenza Artificiale porti con sé una spaccatura netta e una polarizzazione dell’opinione pubblica: da una parte chi adora la macchina come un feticcio, dall’altra chi, ciecato da un aprioristico luddismo, la vuole eliminare a tutti i costi perché ritenuta dannosa per la tenuta sociale. Uno schieramento quasi da stadio, derivante da un’analisi semplicistica della questione, che non permette una valutazione lucida delle novità tecnologiche e dei benefici che essa possono portare con sé, se utilizzate opportunamente entro precise regole e confini.

Niccolò Pescali