Lo zaino Intel aiuta gli ipovedenti a spostarsi senza il supporto di cani o bastoni (Video)

Novità
Lo sviluppatore di intelligenza artificiale (AI) Jagadish K. Mahendran e il suo team hanno progettato uno zaino ad attivazione vocale alimentato da intelligenza artificiale che può aiutare i non vedenti a muoversi liberamente  e percepire il mondo che li circonda. Lo zaino aiuta a rilevare sfide comuni come segnali stradali, ostacoli sospesi, strisce pedonali, oggetti in movimento e altitudini variabili, il tutto mentre è attivato un dispositivo interattivo a bassa potenza.
Jagadish K. Mahendran, Istituto per l’intelligenza artificiale, Università della Georgia, ha detto:
«L’anno scorso, quando ho incontrato un amico ipovedente, sono rimasto colpito dalla sua ironia nel dirmi che mentre insegnavo ai robot a vedere, ci sono molte persone che non possono vedere e hanno bisogno di aiuto. Ciò mi ha motivato a costruire il sistema di assistenza visiva con il Kit di intelligenza artificiale dotato di fotocamere OAK-D di OpenCV, basato su Intel che, oltre a fornire informazioni sugli ostacoli, possono anche fornire informazioni sulla profondità».

Perché è importante
L’Organizzazione mondiale della sanità stima che a livello globale 285 milioni di persone siano ipovedenti, nel frattempo, i sistemi di assistenza visiva per muoversi sono piuttosto limitati, vanno dalle app per smartphone con assistenza vocale basate sul sistema di posizionamento globale, alle soluzioni di bastoni da passeggio intelligenti abilitati per la fotocamera; purtroppo questi sistemi sono privi della percezione della profondità, è necessaria per facilitare il muoversi in modo indipendente.
Hema Chamraj, direttore, Technology Advocacy e AI4Good di Intel, ha detto:
«È incredibile vedere uno sviluppatore utilizzare la tecnologia AI di Intel e creare rapidamente una soluzione per semplificare la vita dei propri amici. La tecnologia esiste, siamo solo limitati dall’immaginazione della comunità degli sviluppatori».

Ecco come funziona
Il sistema è alloggiato all’interno di un piccolo zaino (vedi video) contenente un’unità di elaborazione host, come un laptop. Il giubbotto nasconde la fotocamera mentre il marsupio è utilizzato per contenere un pacco batteria tascabile in grado di fornire circa otto ore di utilizzo. La fotocamera spaziale AI Luxonis OAK-D può essere fissata al giubbotto o al marsupio, quindi collegata all’unità di calcolo nello zaino. Tre piccoli fori nel giubbotto forniscono le viste per l’OAK-D, che è attaccato all’interno del giubbotto.
Brandon Gilles, fondatore e amministratore delegato di Luxonis ha detto:
«La nostra missione in Luxonis è consentire agli ingegneri di realizzare importanti dispositivi aiutandoli a sfruttare rapidamente la potenza della tecnologia Intel AI. È una grande soddisfazione aver visto produrre in breve tempo qualcosa di così prezioso e straordinario come lo zaino basato sull’intelligenza artificiale utilizzando OAK-D».

Note tecniche
L’unità OAK-D è un dispositivo AI versatile e potente, gira su Intel Movidius VPU e il toolkit Intel® Distribution of OpenVINO ™ per l’inferenza AI edge su chip. È in grado di eseguire reti neurali avanzate fornendo allo stesso tempo funzioni di visione artificiale accelerate e una mappa di profondità in tempo reale dalla sua coppia stereo, nonché informazioni sui colori da una singola telecamera 4k.
L’abilitato auricolare Bluetooth consente all’utente di interagire con il sistema tramite query e comandi vocali, il sistema risponde con informazioni verbali. L’utente mentre si muove nel suo ambiente, il sistema trasmette in modo udibile le informazioni sugli ostacoli comuni, inclusi segnali stradali, sporgenza dei rami e pedoni. Avvisa anche di imminenti strisce pedonali, cordoli, scale e ingressi.

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →