YouTube prova a mettere un argine ai deepfake con un nuovo sistema basato sull’intelligenza artificiale, pensato per riconoscere quando un volto viene usato senza autorizzazione.
La piattaforma ha annunciato l’espansione della tecnologia di likeness detection, uno strumento che permette di individuare contenuti generati con AI che imitano il volto di una persona. Dopo una fase iniziale riservata a creator, giornalisti e figure pubbliche, il sistema viene ora esteso anche al mondo dello spettacolo, comprese celebrità e agenzie.
L’obiettivo è chiaro: offrire un modo più rapido per trovare video falsi e chiedere la loro rimozione, in un momento in cui i contenuti generati artificialmente stanno diventando sempre più realistici e difficili da distinguere.
Come funziona il riconoscimento dei volti
Il sistema si ispira a una logica già nota su YouTube, quella del Content ID, ma applicata ai volti invece che ai contenuti protetti da copyright. In pratica, la tecnologia analizza i video caricati per verificare se contengono una rappresentazione artificiale del volto di una persona registrata nel sistema.
Se viene individuata una possibile corrispondenza, l’interessato può esaminare il contenuto e decidere se richiederne la rimozione, secondo le regole della piattaforma. Non si tratta quindi di un blocco automatico, ma di uno strumento che restituisce maggiore controllo a chi rischia di essere imitato online.
Perché YouTube interviene proprio adesso
Negli ultimi mesi i deepfake sono diventati sempre più diffusi e convincenti, alimentando un problema che riguarda non solo le celebrità, ma anche la fiducia nei contenuti digitali. Video realistici ma falsi possono essere usati per creare disinformazione, truffe o contenuti ingannevoli difficili da individuare a colpo d’occhio.
Per questo le piattaforme stanno cercando soluzioni più avanzate. YouTube ha già testato questo sistema con creator e figure pubbliche, per poi estenderlo gradualmente ad altri ambiti più esposti, come quello dell’intrattenimento.
Cosa cambia per gli utenti
Per chi usa YouTube ogni giorno, l’impatto è meno diretto ma comunque importante. Il sistema non impedirà la pubblicazione di tutti i contenuti falsi, ma potrebbe ridurre la circolazione dei video più problematici, soprattutto quelli che sfruttano l’identità di altre persone senza consenso.
Il tema resta aperto anche in Europa e in Italia, dove il dibattito su identità digitale e uso dell’intelligenza artificiale è sempre più centrale. La diffusione di strumenti di questo tipo mostra come il problema non sia più teorico, ma già concreto nella vita online di tutti i giorni.
Una risposta tecnologica a un problema in crescita
Il nuovo sistema di YouTube non è una soluzione definitiva, ma rappresenta un passo importante in una direzione ormai inevitabile: usare l’AI per contrastare gli effetti dell’AI stessa. In un ecosistema in cui creare contenuti falsi è sempre più semplice, anche gli strumenti di controllo devono evolversi con la stessa rapidità.
La sfida, ora, sarà capire quanto questi sistemi riusciranno davvero a stare al passo con la velocità con cui i deepfake continuano a migliorare e a diffondersi.