FYI.

This story is over 5 years old.

Tecnologia

L'intelligenza artificiale che legge il mondo ai non vedenti

Si chiama Aipoly e grazie ad un database di 5.000 immagini e un algoritmo di Intelligenza Artificiale, legge il mondo che ci circonda, raccontandolo a chi soffre di disabilità visive

Nel caleidoscopico mondo della tecnologia c'è spazio per tutti. Stephen Hawking ha un computer che legge il movimento dei suoi occhi, molti altri parlano al loro telefono anziché scrivervi, e chiunque non ci senta può godere dell'incredibile invenzione dei sottotitoli. Ma con storie di realtà virtuale, reti social e algoritmi astrusi, che fine deve fare chi non ci vede? Il problema pare essere risultato chiaro ai ragazzi di Aipoly, che hanno sviluppato un'applicazione che supporta i non vedenti nelle loro attività di tutti i giorni.

Pubblicità

Aipoly nasce all'interno di un concorso della Singularity University, con l'unica regola di sviluppare un progetto che risolvesse uno dei problemi che affligge l'umanità attraverso l'utilizzo di una tecnica con crescita esponenziale, ovvero che si raddoppia ogni 12 mesi. Raddoppia vuol dire che il suo utilizzo deve portare un beneficio concreto alle persone a cui si rivolge entro almeno 10 anni. Non è come giocare a fare i Nostradamus, ma studiare a fondo in che modo l'informatica può dar seguito a quelle che sono regole matematiche ben definite.

"Aipoly punta tutto su un'intelligenza artificiale che è un po' come il cane guida dei non vedenti o il pappagallo sulla spalla che continua a parlare dicendoci ciò che vede intorno a lui. 'Ai-poly' vuol dire però anche poligono, la forma geometrica che racchiude gli elementi basilari della computer vision, uno dei fondamenti del lavoro di sviluppatore," ci dice Alberto Rizzoli, italiano che fa parte del team di Aipoly.

"L'intelligenza artificiale può realmente impattare in maniera significativa il rapporto tra uomo e tecnologia, e lo farà non tra qualche anno, ma adesso. Con Aipoly volevamo risolvere i problemi quotidiani di chi soffre di disabilità visive, semplicemente tramite un'app sullo smartphone," spiega Alberto.

Aipoly, alla fine dei conti, è proprio questo: un'app per iPhone che ricrea a livello informatico una rete neurale, come quella dell'uomo, capace di interpretare a livello testuale gli elementi inquadrati dalla fotocamera. È più facile da provare che spiegare: si inquadra ciò che si vuole e una voce sintetizzata spiega al possessore del telefonino cosa c'è davanti allo schermo. Fino a ieri lo faceva solo in inglese mentre da marzo Aipoly parla perfettamente anche in italiano.

Pubblicità

"Non abbiamo inventato formalmente nulla di nuovo: la tecnica sfruttata nell'applicazione esiste già, per esempio viene sfruttata su Google Photo," spiega Alberto, "Per Aipoly abbiamo sviluppato un prototipo pubblicandolo in beta per 90 tester. Dopo le prime difficoltà abbiamo deciso di lanciare l'app pubblicamente, in versione inglese. Con una certa sorpresa ci siamo accorti che gli utilizzatori maggiori arrivavano dall'Oriente, e non perché li ci fosse una concentrazione maggiore di non vedenti—I ragazzi usavano Aipoly anche per visualizzare il testo inglese degli oggetti inquadrati, sfruttando la piattaforma come un traduttore in tempo reale. Per questo abbiamo deciso di differenziare parte del lavoro pensando ad un'app dedicata all'apprendimento delle lingue".

Uno dei vantaggi di Aipoly è che non serve essere connessi ad internet per ottenere il testo e l'audio di ciò che viene riconosciuto dal software.

Uno dei vantaggi di Aipoly è che non serve essere connessi ad internet per ottenere il testo e l'audio di ciò che viene riconosciuto dal software, "Se avessimo lasciato tutto su un server gli utilizzatori avrebbero consumato in poco tempo tutti i dati a disposizione," spiega Alberto. "All'inizio erano necessari fino a 20 secondi per ottenere una risposta, proprio a causa dei tempi di dialogo tra l'app e un'infrastruttura esterna—Poi, grazie ad una partnership con Terabip, che realizza le reti neurali digitali, siamo riusciti a comprimere il database di Aipoly (circa 5.000 immagini) in poco più di 130 MB, con tempi di risposta di circa 7 secondi," continua.

A livello tecnico è come se Aipoly avesse un armadio con tante formine fatte di colori e caratteristiche differenti, ognuna corrispondente ad una singola immagine nell'archivio. Quando si avvia l'applicazione sull'iPhone, l'intelligenza artificiale apre il suo "cassetto" e confronta la forma ripresa con il dataset a disposizione; quando trova un elemento che combacia mostra il testo corrispondente, dettandolo anche attraverso l'audio.

"Ovviamente è tutto da perfezionare e solo l'uso continuo permetterà al database di Aipoly di migliorare," mi spiega Alberto. "Ad esempio, oggi l'AI non riesce ancora a distinguere tra una rosa e un tulipano, perché comprende solo che quello che ha davanti è un fiore. Ma basta guardarsi leggermente indietro, ai risultati ottenuti fino a pochi anni fa, per capire che questo è già un ottimo risultato," conclude.

Segui Antonino su Twitter: @connessioni