Una intelligenza artificiale che comprende testi scritti e li completa, che prosegue la storia, riassume o risponde a domande adattandosi a diversi stili di scrittura. Si chiama GPT–2 ed è un sistema di predizione del linguaggio “camaleontico” sviluppato dall’organizzazione no-profit OpenAI, sostenuta e fondata tra gli altri da Elon Musk.
L’annuncio ha scatenato diverse preoccupazioni, tanto che il CEO di Tesla ha annunciato in un tweet l’intenzione di uscire dal gruppo di ricerca. Ha aggiunto che non è stato coinvolto da più di un anno con i progetti di ricerca da OpenAI e che deve dedicarsi a “un numero di problemi di progettazione e produzione” a Tesla e SpaceX, oltre a non essere d’accordo con alcuni progetti.
Also, Tesla was competing for some of same people as OpenAI & I didn’t agree with some of what OpenAI team wanted to do. Add that all up & it was just better to part ways on good terms.
— Elon Musk (@elonmusk) February 17, 2019
OpenAI sul blog ufficiale ha comunque parlato di risultato eccezionale, ma che si muoverà coi piedi di piombo. La ricerca non sarà resa pubblica per un potenziale uso sbagliato della tecnologia, basata sull’apprendimento automatico. Il risultato potrebbe essere il proliferare ancora di più di fake news, come se quelle attuali non bastassero.
La tecnologia è stata creata basandosi su diversi modelli di linguaggio e l’IA addestrata con 8 milioni di pagine web. Il modello riesce quindi a predire la parola successiva di un testo, se conosce le parole precedenti. In questo modo, dicono i ricercatori, riesce a creare testi credibili. Un utilizzo scorretto, ad esempio per scopi politici o economici, potrebbe portare davvero parecchi danni.
Questo perché i ricercatori sono arrivati a un risultato ben oltre le loro previsioni. Il modello genera testi di una qualità senza precedenti: GPT–2 è in grado di produrre una pagina di storia, notizia di cronaca ma anche relazioni tecniche, semplicemente dandogli in pasto un input. Gli scienziati continueranno a studiare questa intelligenza artificiale per indagare sulle sue potenzialità Gli utilizzi corretti potrebbero aiutare le persone nella scrittura o traduzione, ma è chiaro come solo la possibilità di generare testi in automatico sia decisamente pericolosa.