pandemie-addestrare-l-intelligenza-artificiale

Pandemie: addestrare l'intelligenza artificiale

Algoritmi di machine learning hanno rilevato per primi il rischio di diffusione del coronavirus. Strumenti altamente tecnologici potranno svolgere in futuro un ruolo fondamentale nel prevedere, diagnosticare e trattare nuovi agenti patogeni. Serve però una maggiore disponibilità di dati per migliorare l'accuratezza dei software

Il primo allarme sull'epidemia di coronavirus è arrivato da software di intelligenza artificiale. Il 30 dicembre 2019, praticamente un giorno prima che l'ufficio cinese dell'Organizzazione mondiale della sanità (Oms) ricevesse le prime segnalazioni, società informatiche come BlueDot e Metabiota avevano rilevato la presenza di numerosi casi di polmonite nella città di Wuhan. Software di elaborazione del linguaggio naturale, gli stessi che fanno girare chatbot e assistenti virtuali, erano giunti a questa conclusione analizzando notizie e rapporti ufficiali delle autorità di sanità pubblica. Il giorno dopo, come accennato, anche l'Oms ha segnalato l'anomalia. Il 12 febbraio quella strana polmonite viene ribattezzata Covid-19. Il contagio si è poi espanso: dalla Cina ai paesi limitrofi, poi in Medio Oriente e in Europa, infine in tutto il mondo. Quella che inizialmente era stata considerata una semplice epidemia è diventata una pandemia, la prima provocata da un coronavirus. E ora l'intero pianeta si trova a fronteggiare una minaccia senza precedenti.
L'esempio di BlueDot e Metabiota fa ben comprendere il ruolo (fondamentale) che potrà ricoprire l'intelligenza artificiale in vista della prossima epidemia. La rapida analisi di dati e informazioni può garantire in anticipo proiezioni utili, nel caso della diffusione di un agente patogeno, a contenere il contagio e tutelare la salute pubblica. Utilizzando gli stessi software di intelligenza artificiale, per esempio, Metabiota aveva previsto lo scorso 25 febbraio che il 3 marzo successivo ci sarebbero stati in tutto il mondo 127mila infezioni, mancando il bersaglio di sole 30mila unità. La stessa società, analizzando i dati sul traffico aereo, aveva poi inserito Italia, Iran e Stati Uniti fra le nazioni a più alto rischio di contagio.
Tutti questi elementi fanno ben sperare sulle possibilità di gestire la prossima epidemia. A patto, tuttavia, che alla rapidità di analisi si accompagni un livello maggiore di accuratezza. HealthMap, software di intelligenza artificiale del Boston Children's Hospital, è stato probabilmente il primo a segnalare il rischio di un'epidemia. Eppure, su una scala in cui il livello 5 identifica il massimo della pericolosità, il livello della minaccia si fermava a un non così allarmante 3. I ricercatori della società hanno impiegato giorni prima di comprendere pienamente la portata del fenomeno.
Quando si parla di epidemie, la velocità non è purtroppo tutto. Conclusioni affrettate possono avere pesanti ripercussioni sui meccanismi di salute pubblica: attivare piani d'emergenza quando non è necessario, per esempio, può comportare ingenti sprechi di risorse che potevano invece essere utilizzate, tanto per citare un caso, nella ricerca di nuovi farmaci o terapie. Ecco perché è così importante garantire, oltre alla rapidità di analisi delle informazioni, anche la qualità e l'accuratezza delle conclusioni a cui può giungere un software di intelligenza artificiale. In altre parole, è necessario addestrare l'intelligenza artificiale.
I software di intelligenza artificiale lavorano spesso su meccanismi di apprendimento automatico. Gli algoritmi ricevono le informazioni, le rielaborano, rilevano connessioni, giungono a conclusioni e poi verificano, con l'assistenza degli sviluppatori, la veridicità o meno dei propri assunti: se sbagliano, imparano dai propri errori e utilizzano quanto hanno appreso per migliorare le proprie performance nelle successive sessioni di addestramento. Insomma, senza una gran quantità di dati è pressoché impossibile addestrare l'intelligenza artificiale a prevedere con la dovuta accuratezza il rischio di un'epidemia. Ed è qui probabilmente che sorge il problema principale. Già, perché nell'epoca dei big data non è così facile trovare informazioni attendibili. Soprattutto quando si parla di dati sensibili come test diagnostici e quadri clinici. E l'esplosione di notizie, informazioni, siti web e social media rischia di essere paradossalmente controproducente per le performance dei software di intelligenza artificiale. La crescita esponenziale di dati aumenta infatti il cosiddetto rumore di sottofondo e limita la possibilità di trovare connessioni nascoste fra i vari elementi.
Gli addetti ai lavori, a tal proposito, chiedono da tempo che informazioni fondamentali per prevenire il rischio di epidemie sono rese disponibili a tutti. Ciò si scontra tuttavia con la contestuale esigenza di tutelare diritti fondamentali come la privacy, sempre più messa a rischio da sistemi (più o meno legali) in grado di monitorare le nostre abitudini e i nostri comportamenti. Solo così però, adottando magari contromisure che tutelino i diritti fondamentali di tutti noi, sarà possibile portare i sistemi di intelligenza artificiale a un livello utile per prevenire, diagnosticare e trattare le epidemie del futuro. Il rischio è che i risultati incoraggianti degli ultimi anni si perdano nel tempo. Già in passato si sono avuti esempi di fallimenti clamorosi. Nel 2008 Google lanciò il servizio Google Flu Trends. Si trattava di un software web in grado di monitorare i picchi influenzali in 25 paesi del mondo, dando indicazioni alle autorità pubbliche su come affrontare le emergenze. Presentato con un roboante livello di accuratezza del 97%, il progetto venne accantonato definitivamente nel 2015, dopo aver clamorosamente sovrastimato il picco influenzale del 2011.