Anche gli smartphone avranno emozioni

Gli smartphone del futuro potranno riconoscere e, forse, provare emozioni. La conferma giunge da una ricerca condotta dall'Università di Rochester.
Gli smartphone del futuro potranno riconoscere e, forse, provare emozioni. La conferma giunge da una ricerca condotta dall'Università di Rochester.

Gli smartphone del futuro non solo saranno in grado di offrire all’utente informazioni su qualsivoglia argomento, ma potranno anche interpretarne le emozioni e gli stati d’animo. Una ricerca condotta presso l’Università di Rochester, infatti, ha dimostrato l’effettiva possibilità di istruire un dispositivo elettronico a riconoscere le emozioni del rispettivo proprietario semplicemente ascoltandone la voce: un domani, insomma, smartphone e tablet potranno agire autonomamente in base allo stato d’animo dell’utente.

Alla base di tale idea vi è un’app sviluppata per catturare una serie di caratteristiche peculiari della voce, le quali sono in grado da sole di determinare con una buona approssimazione l’effettivo stato d’animo dell’interlocutore. Tali caratteristiche vengono quindi confrontate con un database allestito proprio per avere un campione con il quale ottenere un riscontro, grazie alla collaborazione di alcuni attori che hanno prestato la propria voce per registrarne le emozioni.

Secondo i primi test, l’app sarebbe quindi in grado di ottenere una precisione dell’81% nel determinare le emozioni degli utenti, compiendo un deciso passo in avanti rispetto al 55% registrato in passato. Alla ricerca ha preso parte anche una psicologa, la quale ha fornito importanti indicazioni sulla strada da seguire per determinare con accuratezza i tratti caratteristici della voce umana e per legarli a particolari emozioni. Un domani, quindi, potrebbe esser possibile acquistare smartphone in grado di cambiare combinazione dei colori, immagine di sfondo, impostazioni del volume ed altri parametri semplicemente interpretando lo stato d’animo dell’utente.

Prima di allora, però, si dovranno risolvere diversi problemi riscontrati in questi mesi di sperimentazione, in primis la dipendenza dalla particolare voce utilizzata per “addestrare” il software a riconoscere i sentimenti. Lo studio in questione ha infatti confermato la tesi secondo cui l’efficienza del software è direttamente legata al numero di volte che ha ascoltato una particolare voce: cambiando ad esempio interlocutore la precisione è scesa fino al 30% negli esperimenti, rendendo quindi necessario ulteriore lavoro per aggirare tale ostacolo.

Ti consigliamo anche

Link copiato negli appunti