YouTube: un redirect per combattere il terrorismo

Redirect Method è una tecnologia adottata da YouTube per sconfiggere la piaga del terrorismo online con le armi dell'informazione e della contronarrazione.
Redirect Method è una tecnologia adottata da YouTube per sconfiggere la piaga del terrorismo online con le armi dell'informazione e della contronarrazione.

C’è chi sostiene che il terrorismo non verrà sconfitto in Rete, chi ritiene che la censura dei contenuti di matrice violenta o propagandistica sia l’unica strada percorribile e chi ancora intende contrastare il fenomeno facendo leva su quelle stesse dinamiche attuate dagli estremisti per fare proselitismo e agganciare nuove reclute, con lo strumento della contronarrazione. Google e in particolare YouTube hanno scelto di percorrere quest’ultima strada.

Se ne è parlato il mese scorso, quando il gruppo di Mountain View ha messo nero su bianco le linee guida del proprio approccio alla questione. Anziché impedire a chi naviga l’accesso ai documenti e ai video incriminati, si sfrutta il ruolo di intermediario svolto dal motore di ricerca e dalle sue piattaforme per reindirizzare il visitatore verso contenuti che mettono in evidenza tutti i lati negativi delle posizioni terroriste come quelle promosse dall’ISIS. YouTube ha scelto di farlo introducendo un sistema chiamato Redirect Method e messo a punto da Jigsaw (sussidiaria della parent company Alphabet) in collaborazione con Moonshot CVE.

Un metodo che fa leva sulle potenzialità dell’intelligenza artificiale e del machine learning: vengono individuate le parole chiave e le frasi solitamente digitate dalle persone più vulnerabili e che potrebbero costituire il target perfetto degli estremisti che si rivolgono al Web per trovare nuovi seguaci. Dopodiché, nel caso specifico di YouTube, anziché mostrare loro video di propaganda li si reindirizza verso filmati che smentiscono le tesi sostenute dai movimenti terroristi, ridimensionando quello che talvolta è il loro oscuro potere attrattivo.

Un’azione di debunking a tutti gli effetti, che non si limita ad impedire allo spettatore l’accesso a un contenuto potenzialmente dannoso (si otterrebbe nella maggior parte dei casi l’effetto contrario a quello sperato, aumentando curiosità e interesse), ma lo prende per mano e lo accompagna lungo un percorso conoscitivo. Non lo si condanna, ma gli si spiega quali sono i rischi che si stanno per correre. L’informazione, dunque, come strumento di potere per combattere l’odio e scongiurare il pericolo.

È un approccio che funziona? I test finora condotti, in occasione di un programma pilota durato otto settimane, sembrano confermarlo: 320.000 persone sono state reindirizzate e hanno guardato i 116 video messi online da YouTube per un lasso di tempo complessivo pari a 500.000 minuti. Si tratta di contenuti curati da esperti e che in futuro saranno realizzati in partnership con esponenti di organizzazioni non governative attive nella lotta al terrorismo. Al momento i filmati sono disponibili solo in lingua inglese e in arabo, ma entro le prossime settimane anche questo limite verrà abbattuto, a partire dai paesi europei. Come già detto, il machine learning giocherà un ruolo importante nel progetto, analizzando le query inoltrate e individuando nuove keyword sensibili.

Il compito di Google e di YouTube non è semplice: la discussione non verte sulla permanenza online di contenuti di stampo terrorista, bensì sulla legittimità degli strumenti e dei filtri messi in campo per impedirne l’accesso da parte degli utenti. In altre parole, è giusto impedire lo streaming di un video diffuso dall’ISIS? Facendolo si evita al movimento estremista di sedurre nuove potenziali reclute oppure si compromette il diritto all’informazione? In tal caso è eccessivo parlare di censura? Il gruppo di Mountain View ha scelto di affrontare il problema da una prospettiva differente. Sarà il tempo a stabilire se si tratta di una strategia efficace o meno.

Ti consigliamo anche

Link copiato negli appunti