QR code per la pagina originale

Facebook, la vera storia delle IA Bob e Alice

Due IA di Facebook sono state spente a causa di un banale errore di programmazione che le ha portate a usare una lingua tutta loro.

,

Robot che hanno perso il controllo, linguaggi misteriosi ed intelligenze artificiali che complottano contro l’uomo. Nella serata di ieri una banale notizia si era trasformata in canovaccio per una nuova serie di Terminator. Facebook ha spento due intelligenze artificiali (Bob e Alice) su cui stava lavorando perchè avevano creato un linguaggio tutto loro e con il quale stavano comunicando senza che i contenuti fossero intellegibili dall’uomo. I fatti sono molto semplici. I ricercatori del social network stavano testando due intelligenze artificiali pensate per interagire con gli esseri umani attraverso un linguaggio naturale specificatamente in merito a contrattazioni economiche di beni e servizi. Tutto ha proceduto bene sino a che le due IA hanno dialogato con esseri umani, poi quando hanno iniziato a farlo solamente tra di loro qualcosa è andato storto. Le due IA, infatti, hanno iniziato ad utilizzare un linguaggio tutto loro eliminando dalle frasi, in lingua inglese, tutte le parole superflue. Una sorta di ottimizzazione del discorso tra le due parti, insomma, che non consente però ai ricercatori di controllare quanto in essere.

L’errore è stato originato dall’uomo perché i ricercatori si erano dimenticati di inserire un sistema di “ricompense” che forzasse le intelligenze artificiali ad utilizzare una completa e comprensibile forma di linguaggio basata sulla lingua inglese. Mancando questo “stimolo”, i loro algoritmi hanno provveduto ad ottimizzare meccanicamente le frasi arrivando a creare un linguaggio tutto loro ed incomprensibile ai ricercatori. A questo punto le due IA sono state spente in attesa di essere riprogrammate per poter funzionare correttamente. Sembrerebbe un normale incidente di percorso nello sviluppo delle IA, come probabilmente ce ne sono molti, eppure la notizia non sono ha avuto un eco incredibile ma ha anche suscitato preoccupazione e addirittura panico.

La notizia, infatti, è stata ripresa puntando il dito proprio sulla creazione del nuovo linguaggio e paventando una sorta di inizio di indipendenza delle due intelligenze artificiali, riportando alla mente scenari catastrofici di alcuni film come Terminator in cui proprio le intelligenze artificiali si erano ribellate all’uomo. Uno scenario che anche lo stesso Elon Musk, CEO di Tesla, aveva paventato chiedendo regole sullo sviluppo di queste piattaforme prima che fosse troppo tardi per l’uomo.

Insomma, la notizia per alcune ore aveva aperto scenari quasi apocalittici con il timore che le due IA si fossero dette in segreto chissà cosa e che questa loro “indipendenza” fosse il preambolo di qualcosa di molto pericoloso. Una scenario catastrofico probabilmente anche “pompato” dalla stampa generalista che ha esaltato le conseguenze in stile “fantasy” dell’errore piuttosto che spiegare esattamente cosa fosse successo. Non a caso proprio Facebook ha puntato il dito contro il modo in cui la notizia è stata coperta: primo, perché lo spegnimento dell’esperimento non sarebbe dovuto ad alcun timore particolare, ma semplicemente poiché non in linea con gli obiettivi preposti (come controllare il perseguimento di un obiettivo se il linguaggio utilizzato non era più intellegibile); secondo, perché i toni utilizzati sarebbero quelli propri del clickbait e non certo di una seria esplicazione dell’argomento.

La realtà è che non è successo nulla, o meglio è stato commesso un errore che è già capitato molte volte e che probabilmente capiterà ancora durante lo sviluppo di queste piattaforme che non stanno assolutamente complottando contro l’uomo. Il debug ha evidenziato l’errore umano e l’IA sarà semplicemente riprogrammata per meglio assolvere ai compiti affidati.

Eppure, sul tema è probabilmente necessario iniziare a discutere con criterio e soprattutto serietà. L’intelligenza artificiale sarà sempre più presente nella vita di tutti i giorni delle persone all’interno di servizi e prodotti. Le fiction hanno da sempre descritto queste piattaforme come qualcosa di pericoloso ed oggi c’è molta confusione sul tema. Una discussione seria ed approfondita che argomenti cosa sono e come saranno utilizzate le intelligenze artificiali è probabilmente necessaria per non ricadere ogni volta in allarmismi inutili, bilanciando al tempo stesso gli allarmi di quanti ne intravedono i pericoli futuri. La paura non è un approccio plausibile: lo studio, la disamina e la piena trasparenza debbono invece ingredienti irrinunciabili nel momento in cui l’IA inizia ad essere qualcosa di più serio di un semplice canovaccio cinematografico.

Immagine: Phonlamai Photo via Shutterstock • Notizie su: ,