Deepfake, no, non siamo pronti

Il caso di Zuckerberg arriva dopo quello di Obama (e tanti) e dimostra che, come utenti, non siamo ancora in grado di discernere falso e verità.
Il caso di Zuckerberg arriva dopo quello di Obama (e tanti) e dimostra che, come utenti, non siamo ancora in grado di discernere falso e verità.

Abbiamo ancora negli occhi il video fake in cui Zuckerberg ricorda, falsamente, che governare i dati vuol dire governare il futuro. Il filmato, prodotto da Bill Posters e Daniel Howe, in collaborazione con Canny AI, è stato pubblicato su Instagram e lì è rimasto. Il motivo? La piattaforma lo considera uno dei tanti contenuti che girano online e che, solo su indicazione degli utenti, può essere etichettato come lesivo e dunque rimosso. Questo è giusto? Probabilmente no.

Nessuno crede davvero che Mark Zuckerberg possa controllare il futuro. Oppure si. Il fatto è che finora la tecnologia dei deepfake, ossia dei video bufala sviluppati tramite IA, è stata utilizzata non per fini bellici, cioè non per creare direttamente delle conseguenze negative. Nell’aprile scorso, un deepfake di Obama faceva esclamare all’ex presidente: “Trump è un deficiente”. Abbiamo riso, per carità, ma una simile tecnica, già ben presente, potrebbe assumere dei contorni molto negativi, per non dire catastrofici.

I social media dovrebbero sviluppare una risposta unificata a questi tipi di video. Volgendo lo sguardo alle elezioni statunitensi del 2020, aziende e partiti devono rimanere vigili e agire proattivamente con risposte rapide ai deepfake che nasceranno molto presto. Lasciare semplicemente che il trend faccia il suo corso non è possibile, non in questo caso.

Il problema più grande, ovviamente, è che i video fasulli non sono limitati agli Stati Uniti. Basti pensare a cosa ha fatto la Russia con la fabbrica dei troll e a dove possa arrivare con un basilare software di intelligenza artificiale che modella un viso umano a proprio piacimento. Ma non solo: la Cina ha già messo in campo il proprio algoritmo professionista, che legge le notizie in TV, mentre Stanford University, Max Planck Institute for Informatics, Princeton University e Adobe Research hanno dimostrato quanto sia semplice produrre un deepfake con il software VoCo.

Pensiamo a dove i paesi autarchici giungeranno, manipolando i video fake per screditare oppositori e dissidenti. A quel punto, chi potrebbe distinguere il vero dal falso? Non sapremmo più a chi credere, forse nemmeno a noi stessi.

E allora..#BuongiornounCaffo

Ti consigliamo anche

Link copiato negli appunti