linee-guida-per-l-etica-dell-ia

Linee guida per l’etica dell’IA

L’Unione Europea ha pubblicato le prime linee guida per lo sviluppo e l’utilizzo sicuro dell’intelligenza artificiale, redatte da un team di esperti. Si apre una fase di test i cui risultati potranno essere condivisi tramite un sondaggio online attivo da giugno

Giunta al termine la prima fase di confronto, l'8 aprile l'Unione Europea ha pubblicato una serie di linee guida sull'etica per l'intelligenza artificiale affidabile. Tali orientamenti sono stati elaborati dal gruppo di esperti europei sull'IA istituito dalla Commissione europea nel giugno 2018, e si basano sui risultati di una consultazione pubblica alla quale hanno partecipato imprese e organizzazioni dell’Unione.
È la prima volta a livello mondiale che si tenta di definire dei parametri con l’obiettivo di rafforzare la fiducia del pubblico sull’utilizzo dell'Intelligenza Artificiale. Non si tratta di indicazioni giuridicamente vincolanti, ma potrebbero essere di modello alla prossima legislazione dell'UE sull’argomento. Con questa iniziativa l'Unione Europea punta ad assumere un ruolo di riferimento internazionale sul tema etico dell’IA, così come avvenuto con il Gdpr per la tutela dei dati privati.
Le linee guida sono costituite da sette requisiti etici che devono essere seguiti da aziende e governi nello sviluppo di applicazioni di AI:

1. titolarità dell’azione e supervisione umana: rispetto dei diritti fondamentali, azione e supervisione sono guidati dall’uomo;
2. solidità tecnica e tutela: resilienza all'attacco e sulla sicurezza, fall back plan e protezione generale, accuratezza, affidabilità e riproducibilità;
3. privacy e governance dei dati: rispetto della privacy, qualità e integrità dei dati, e accesso ai dati;
4. trasparenza: tracciabilità, esplicabilità e comunicazione;
5. rispetto della diversità, non discriminazione ed equità: evitare comportamenti parziali e scorretti, perseguire accessibilità equa e progettazione universale, coinvolgimento degli stakeholder;
6. benessere sociale e ambientale: sostenibilità e compatibilità ambientale, impatto sociale, società e democrazia;
7. responsabilità: verificabilità, minimizzazione e reporting degli impatti negativi, confronto e strumenti di risarcimento.
Il rapporto include un elenco di domande pratiche ("trustworthy AI assessment list") per supportare gli utenti nell’implementazione pratica dei requisiti.
Questa serie di linee guida verrà testata al fine di raccogliere feedback per il miglioramento.
Gli stakeholder coinvolti possono dare la propria adesione al programma pilota e iniziare la fase di test e valutazione delle linee guida identificate. I feedback saranno raccolti attraverso un sondaggio online che verrà lanciato nel giugno 2019: sulla base dei risultati il gruppo di esperti alla guida del progetto proporrà alla Commissione europea nei primi mesi del 2020 la versione aggiornata della lista di valutazione.