Ultima edizione | Archivio giornali | Archivio tematico | Archivio video

CNR: Alamanacco della Scienza

Archivio

N. 10 - 21 ott 2015
ISSN 2037-4801

Focus - Scoperte e invenzioni  

Tecnologia

Le immagini parlano

Lo smartphone è oggi ancora più smart grazie ad Aipoly, l’applicazione di nuova generazione in grado di dare un prezioso contributo alla così detta 'visione artificiale’. Scattata la foto, il cellulare invia l’immagine a un server che la confronta con milioni di altre immagini di tutti i tipi relative a 300 mila oggetti diversi. Appena trovata la corrispondenza viene inviata, in un tempo massimo di circa 20 secondi, la risposta all’utente, con la descrizione dettagliata di ciò che è stato fotografato,.

A sviluppare Aipoly sono stati due giovani: Alberto Rizzoli, 22enne figlio dell’editore Angelo, e Marita Cheng, 26 anni, 'Giovane australiana dell’anno’ nel 2012, all’interno della Singularity University, centro di eccellenza delle Silicon Valley situato in una ex sede Nasa accanto a colossi come Google e la Standford University, e che ogni anno seleziona i candidati migliori per sviluppare 80 progetti meritevoli da far crescere in 10 settimane.

Attraverso la tecnologia denominata 'machine vision’ o 'computer vision’, che si basa sulla conoscenza delle reti di neuroni utilizzate dal nostro cervello per distinguere le varie componenti presenti all’interno di un’immagine, il sistema riconosce un gran numero di oggetti, creature e scene. La sfida adesso è aumentare il data base di riferimento in modo da rendere questa applicazione ancor più efficace anche nell’ambito della robotica e capace di oltrepassare l’insieme di oggetti che un essere umano può ricordare durante la propria vita.

“Si tratta di un passo avanti interessante. Oltre all’evidente utilità per i soggetti ipovedenti, siamo di fronte a una tecnologia, che permette ai pazienti un continuo paragone tra la propria visione e la descrizione che giunge dall’applicazione. Diventa insomma uno strumento di 'allenamento’ che potrebbe portare a grandi miglioramenti visivi”.

Scoprire dove abbiamo messo le chiavi che non troviamo oggi è possibile, dunque, attraverso una foto scattata dal cellulare. E si può immaginare un futuro in cui gli oggetti nel mondo reale si possono cercare come fossero nel web, attraverso un motore di ricerca tipo Google.

Elisabetta Baldanzi

Fonte: Alessandro Farini, Istituto nazionale di ottica del Cnr di Firenze, tel. 055/2308222,-315 , email alessandro.farini@ino.it -