gpt-3-un-intelligenza-artificiale-che-sa-scrivere

GPT-3, un'intelligenza artificiale che sa scrivere

Ha scalato la classifica del portale Hacker News, pubblicato un editoriale su The Guardian e trollato gli utenti di Reddit: ecco come l'algoritmo di OpenAI si candida, fra molti dubbi, a riscrivere le regole del content management e della customer experience

Lo scorso luglio un post intitolato Feeling unproductive? Maybe you should stop overthinking è balzato in vetta alla classifica del portale Hacker News. Ospitato sul blog Nothing but Words, il post ha totalizzato in brevissimo tempo 47 punti e 26 commenti. Il blog, inaugurato pochi giorni prima su Substack, ha invece registrato la bellezza di 26mila visite e circa 60 iscrizioni. Alla base del progetto c'è Liam Porr, uno studente di informatica all'università di Berkeley. Che però, come ha poi rivelato lui stesso, non ha scritto materialmente una sola parola. A farlo è stato GPT-3, un software di intelligenza artificiale di OpenAI capace di scrivere. Come ha spiegato Porr in un post successivo, il blog nasce come una sorta di esperimento. Lo studente, grazie alla collaborazione di un ricercatore della stessa università, ha avuto accesso all'algoritmo e l'ha programmato per scrivere qualche post sul tema della mindfulness e del self-help. Una scelta dettata dalle circostanze, visto che, come ha scritto lo stesso Porr, “GPT-3 è bravissimo a creare un bel linguaggio che sappia toccare le emozioni, meno argomenti logici e pensiero razionale”. Alla fine, come visto, il software si è rivelato persino migliore degli scrittori in carne e ossa. Solo un utente ha avanzato il sospetto che il post fosse stato scritto da una macchina, finendo per essere criticato dagli altri frequentatori del portale.
Porr ha detto che ci sono volute solo un paio d'ore per avere l'idea, mettersi in contatto con il ricercatore e pubblicare il primo post. “È davvero rapidissimo, il che è anche in parte spaventoso”, ha scritto. L'esperimento di Porr è soltanto uno degli esempi più recenti delle potenzialità di GPT-3. A settembre l'algortimo ha pubblicato un editoriale su The Guardian per rassicurare il genere umano sulla bontà dell'intelligenza artificiale. E più recentemente si è scoperto che c'era lo stesso software dietro all'utente /u/thegentlemetre, che ha a lungo trollato gli utenti di Reddit: seppur coinvolto per lo più in conversazioni di poco conto, l'algortimo si è ritrovato anche a parlare con un utente che aveva manifestato istinti suicidi.
La novità si candida a rivoluzionare il mercato del content management e della customer experience. Una volta perfezionato, il software potrà infatti essere utilizzato per gestire i contenuti di un sito web o la webchat di una pagina aziendale. Al momento è possibile presentare a Microsoft, la società che detiene la licenza esclusiva di sfruttamento di GPT-3, una richiesta di utilizzo del software. Tuttavia non mancano i punti critici. Innanzitutto il sistema appare ancora tutt'altro che perfetto. L'editoriale pubblicato su The Guardian, per esempio, è frutto di una sorta di collage realizzato su otto bozze diverse che GPT-3 aveva generato. “Ognuna di esse era unica, interessante e sviluppava un argomento diverso. Avremmo potuto semplicemente pubblicare uno di questi saggi nella sua interezza”, ha spiegato la redazione in una nota. “Tuttavia – ha aggiunto – abbiamo deciso di selezionare le parti migliori di ognuno, per mostrare i diversi stili e registri. L’editing non è stato diverso da quello di un qualunque editoriale scritto da un essere umano, e alla fine ha richiesto meno tempo di molti articoli scritti da umani”. Il giornale ha pubblicato un commento alla realizzazione dell'editoriale per rispondere alle critiche che le erano arrivate. L'articolo, per quanto non esaustivo quanto ci si sarebbe aspettato, ha fatto ben comprendere che l'editoriale era solo una piccola parte del più ampio lavoro di GPT-3. E che, soprattutto, ampie porzioni dell'elaborato non erano assolutamente pubblicabili: alcune parti risultano semplicemente senza senso.
C'è poi il fatto che la concessione del software viene data più facilmente ai giornalisti che ai ricercatori. E ciò può incrementare i dubbi sull'efficacia dello strumento. Fra gli esclusi c'è per esempio Gary Marcus, ex professore della New York University e fondatore della start up Robust.ai. Già critico nei confronti di GPT-2, fratello maggiore di GPT-3 e mai rilasciato perché considerato troppo pericoloso in caso di uso illecito, Marcus ha comunque avuto accesso al software grazie a un collega e l'ha sottoposto a una serie di test. Il risultato non è stato dei migliori. Stando agli esiti del test, il software ha analizzato milioni di pagine web per vergare frasi prive di qualsiasi contenuto logico: secondo GPT-3, mischiare succo di cranberries e succo d'uva può portare alla morte e girare dello zucchero in una limonata con una sigaretta può spingerti a “creare la Cremation Association of North America, che è diventata un importante fornitore di servizi di cremazione con 145 sedi”.