QR code per la pagina originale

Timelapse oltre lo spazio e il tempo

Alcuni ricercatori hanno preso milioni di scatti fotografici, li hanno divisi in cluster e li hanno modificati per renderli omogenei e generare timelapse.

,

Ricardo Martin-Brualla, David Gallup e Steven M.Seitz: grazie al loro lavoro, frutto della collaborazione tra l’Università di Washington e Google, nasce una nuova macchina del tempo che consente di guardare al passato per creare spettacolari animazioni su molti punti di interesse al mondo. Un lavoro di archivio ed elaborazione, infatti, consente di generare immaginifici timelapse la cui riproduzione sa restituire emozioni e significati. Un esempio:

Lo spazio e il tempo si compattano tra le maglie dell’ingegneria informatica applicata all’elaborazione grafica: gli scatti di milioni di persone diventano l’occhio lungo dell’intera comunità online, testimoniando i cambiamenti che avvengono in un dato luogo. E la forza dell’esperimento è del tutto evidente.

La descrizione del progetto è firmata dagli stessi ricercatori: «Introduciamo un approccio per sintetizzare video timelapse di luoghi popolari da grandi collezioni di fotografie». Nei fatti, il team ha catturato 86 milioni di immagini fotografiche online pubblicamente disponibili (dunque senza limiti dovuti al copyright, soprattutto all’interno dell’immensa collezione di Flickr), identificando il luogo dello scatto e il momento dello stesso. Quindi le immagini sono state elaborate per fare in modo che potessero ritrarre il medesimo luogo dal medesimo punto di vista. Infine sono state corrette dal punto di vista cromatico per simulare i medesimi effetti di luce, evitando l’alternarsi di ombre o contrasti che avrebbero penalizzato il risultato finale.

L’ultimo processo è quello che mette in fila gli scatti in ordine cronologico, generando il cosiddetto “Timelapse Mining from Internet Photos”. I dettagli della ricerca sono stati pubblicati in apposito pdf ed ulteriori esempi dell’elaborazione saranno presto disponibili online.

Timelapse

Fonte: Prosthetick Knowledge • Via: Engadget • Notizie su: ,