Honda ASIMO, un robot sempre più umano

Al Salone Internazionale dell'auto di New York, Honda ha mostrato la nuova versione del robot ASIMO, notevolmente migliorata rispetto alle precedenti.
Al Salone Internazionale dell'auto di New York, Honda ha mostrato la nuova versione del robot ASIMO, notevolmente migliorata rispetto alle precedenti.

Gli sviluppi e le innovazioni nel campo della robotica potranno in futuro non soltanto migliorare l’efficienza dei processi produttivi, ma anche contribuire a semplificare la vita di tutti. Lo dimostra ad esempio il forte interesse manifestato di recente da Google verso questo ambito, con l’acquisizione di Boston Dynamics, oltre all’evoluzione di progetti longevi come Honda ASIMO.

Per chi non ne fosse a conoscenza, si tratta di un robot umanoide, ovvero che replica le sembianze e i movimenti di un essere umano. La progettazione ha preso il via addirittura nel lontano 1986, con i primi test ed esperimenti, portando nel 2003 alla presentazione di un prototipo in grado di muoversi sulle proprie “gambe” se controllato da remoto e guidato da strisce colorate sul pavimento. In poco più di un decennio i passi in avanti effettuati sono stati molti e importanti, con i risultati più recenti mostrati ieri all’International Auto Show (non va dimenticato che Honda è innanzitutto un’azienda automobilistica e motociclistica). Basta dare uno sguardo al filmato in streaming di seguito per apprezzare gli evidenti progressi fatti dal team nipponico.

ASIMO (acronimo utilizzato per indicare Advanced Step in Innovative Mobility) può correre, camminare lateralmente o all’indietro, ruotare su se stesso, calciare un pallone, salire e scendere le scale, saltare a piedi uniti, salutare e stringere una mano. Ancora più impressionante il livello di precisione raggiunto da sensori e attuatori, che permettono all’automa di sollevare un contenitore, svitarlo e versarne il contenuto in un bicchiere di carta, senza rovesciarne nemmeno una goccia.

Il robot può inoltre interagire rispondendo a semplici frasi o attraverso il linguaggio dei segni giapponese, con gli ingegneri che hanno dichiarato di essere al lavoro anche su quello americano. I prossimi step del progetto andranno nella direzione di migliorare l’autonomia (attualmente pari a circa 40 minuti) e di rendere più naturale il comportamento. Ad esempio, dopo aver versato una tazza di tè e prima di porgerla, potrebbe fermarsi un attimo ad osservare l’interlocutore. Un gesto che non ha nulla a che vedere con l’automazione o la velocità di esecuzione dei comandi, ma tipicamente umano. Anche per la robotica, il tocco di classe si potrebbe nascondere nei piccoli dettagli.

Ti consigliamo anche

Link copiato negli appunti