QR code per la pagina originale

Adobe individua le immagini fake con l’IA

Analizzando il rumore presente nelle diverse porzioni di un'immagine, la rete neurale di Adobe è in grado di stabilire se è stata contraffatta o meno.

,

Stabilire l’autenticità e la veridicità di un’immagine non è affatto semplice, complice anche la continua e progressiva evoluzione degli strumenti dedicati all’editing. Tra questi, uno dei più avanzati è senza alcun dubbio Photoshop. Non stupisce dunque che, tra coloro che si sono attivati al fine di trovare un metodo efficace per individuare foto alterate, ci sia la software house responsabile del suo sviluppo: Adobe.

La divisione Research ha annunciato un progetto messo in campo al fine di impiegare le potenzialità dell’intelligenza artificiale per decretare se un’immagine è autentica oppure se ci si trova di fronte a una fake photo. Il paper pubblicato, intitolato “Learning Rich Features for Image Manipulation Detection”, descrive il funzionamento di una rete neurale istruita per riconoscere tre tipologie di modifiche: splicing (unione di parti derivanti da più immagini differenti), copy-move (spostamento o duplicazione degli elementi) e removal (rimozione di oggetti o soggetti).

Gran parte del lavoro viene effettuando analizzando la quantità e la tipologia di rumore presente nelle differenti porzioni di un’immagine: le variazioni possono essere impossibili da individuare per l’occhio umano, ma non per gli algoritmi. Ricordiamo che il rumore, in fotografia e in particolare con l’impiego di macchine digitali, è la “granulosità” che caratterizza un’immagine: lo si nota in particolare acquisendo scatti con valori ISO elevati in situazioni di scarsa illuminazione.

L'IA di Adobe stabilisce se un'immagine è stata alterata analizzandone le singole porzioni

L’IA di Adobe stabilisce se un’immagine è stata alterata analizzandone le singole porzioni (immagine: Adobe).

Un approccio di questo tipo, secondo Adobe, risulta efficace anche se l’immagine finale è salvata con una forte compressione oppure se chi l’ha modificata ha aggiunto volontariamente un disturbo in fase di post-produzione così da rendere più complicata la valutazione da parte dell’IA. Un simile sistema potrebbe un giorno essere impiegato, ad esempio, all’interno dei motori di ricerca per stabilire se le immagini allegate alle notizie indicizzate sono da ritenersi una rappresentazione autentica e fedele della realtà oppure se sono state sottoposte a modifiche per alterarne la percezione da parte del lettore.

Fonte: Adobe • Via: Gizmodo • Immagine: Crystal Eye Studio / Shutterstock