Super chip in grado di classificare quasi 2 miliardi di fotogrammi il secondo

L’intelligenza artificiale (AI) svolge un ruolo importante in molti sistemi, dai testi predittivi alle diagnosi mediche. Ispirati al cervello umano, molti sistemi di IA sono implementati sulla base di reti neurali artificiali, in cui gli equivalenti elettrici dei neuroni biologici sono interconnessi, addestrati con una serie di dati noti, come le immagini, e quindi utilizzati per riconoscere o classificare nuovi punti di dati.
L’immagine dell’oggetto target nelle reti neurali tradizionali utilizzate per il riconoscimento delle immagini, viene prima formata su un sensore di immagine, come la fotocamera digitale di uno smartphone, quindi, il sensore di immagine converte la luce in segnali elettrici e, infine, in dati binari che possono essere elaborati, analizzati, memorizzati e classificati mediante chip per computer.
L’attuale tecnologia di classificazione delle immagini di livello consumer su un chip digitale, mentre è in grado di eseguire miliardi di calcoli il secondo, il che la rende sufficientemente veloce per la maggior parte delle applicazioni, la classificazione di immagini più complesse, come l’identificazione di oggetti in movimento, l’identificazione di oggetti 3D o la classificazione di cellule microscopiche nel corpo, stanno spingendo i limiti computazionali anche della tecnologia più potente. L’attuale limite di velocità di queste tecnologie è fissato dal programma di clock delle fasi di calcolo in un processore di computer, in cui le computazioni avvengono una dopo l’altra secondo un programma lineare.
Gli ingegneri della Penn Engineering University of Pennsylvania per ovviare a questa limitazione, hanno creato il primo chip scalabile che classifica e riconosce le immagini quasi istantaneamente. Firooz Aflatouni, professore associato di Ingegneria elettrica e dei sistemi, insieme ai collaboratori Farshid Ashtiani e Alexander J. Geers, hanno eliminato le quattro principali cause di perdita di tempo nei chip per computer tradizionali: la conversione dei segnali ottici in elettrici; la necessità di convertire i dati di ingresso in formato binario; un modulo di memoria di grandi dimensioni; e i calcoli basati sul clock.
I ricercatori hanno ottenuto questo risultato attraverso l’elaborazione diretta della luce ricevuta dall’oggetto di interesse, utilizzando una rete neurale ottica profonda implementata su un chip di 9,3 millimetri quadrati.
Lo studio, pubblicato nella rivista Nature, descrive come i numerosi neuroni ottici del chip siano interconnessi mediante fili ottici o “guide d’onda” per formare una rete profonda di molti “strati di neuroni” che imita quella del cervello umano. Le informazioni passano attraverso gli strati della rete e ogni fase aiuta a classificare l’immagine in ingresso in una delle categorie apprese. Le immagini classificate dal chip, nello studio dei ricercatori, erano caratteri disegnati a mano, simili a lettere.
Il chip dei ricercatori come prova di concetto è stato testato su set di dati contenenti due o quattro tipi di caratteri scritti a mano, ottenendo una precisione di classificazione superiore rispettivamente al 93,8% e all’89,8%.
I ricercatori hanno detto che proprio come la rete neurale nel nostro cervello, questa rete profonda è progettata in modo da consentire una rapida elaborazione delle informazioni, hanno dimostrato che il loro chip è in grado di eseguire la classificazione di un’intera immagine in mezzo nanosecondo, il tempo necessario ai chip dei computer digitali tradizionali per completare una sola fase di calcolo nel loro programma basato su un clock.
Firooz Aflatouni ha detto:
«Il nostro chip elabora le informazioni attraverso quello che chiamiamo “calcolo per propagazione”, ovvero, a differenza dei sistemi basati su clock, le computazioni avvengono mentre la luce si propaga attraverso il chip. Inoltre, saltiamo la fase di conversione dei segnali ottici in segnali elettrici, perché il nostro chip è in grado di leggere ed elaborare direttamente i segnali ottici; entrambi questi cambiamenti rendono il nostro chip una tecnologia significativamente più veloce».
La capacità del chip di elaborare direttamente i segnali ottici si traduce in un altro vantaggio. Farshid Ashtiani ha detto:
«Quando gli attuali chip per computer elaborano i segnali elettrici, spesso li fanno passare attraverso un’unità di elaborazione grafica, o GPU, che occupa spazio ed energia. Il nostro chip non ha bisogno di memorizzare le informazioni, eliminando la necessità di una grande unità di memoria».
Firooz Aflatouni ha affermato:
«Eliminando l’unità di memoria che memorizza le immagini, aumentiamo anche la privacy dei dati, con i chip che leggono direttamente i dati delle immagini, non c’è bisogno di memorizzare le foto e quindi non si verificano perdite di dati».
I ricercatori hanno detto che un chip in grado di leggere le informazioni alla velocità della luce e di garantire un maggior grado di sicurezza informatica avrebbe senza dubbio un impatto in molti campi, è questo uno dei motivi per cui negli ultimi anni la ricerca su questa tecnologia si è intensificata.
Alexander J. Geers spiega:
«Non siamo i primi a proporre una tecnologia che legge direttamente i segnali ottici, ma siamo i primi a creare un sistema completo all’interno di un chip che sia compatibile con la tecnologia esistente e scalabile per lavorare con dati più complessi».
Il chip, con il suo design a rete profonda, richiede un addestramento per imparare e classificare nuovi set di dati, in modo simile a come imparano gli esseri umani. La rete profonda quando viene presentato un dato set di dati, recepisce le informazioni e le classifica in categorie apprese in precedenza. L’addestramento deve raggiungere un equilibrio sufficientemente specifico per ottenere accurate classificazioni delle immagini e in generale, per essere utile quando vengono presentate nuove serie di dati. Gli ingegneri possono “scalare” la rete profonda aggiungendo altri strati neurali, consentendo al chip di leggere i dati in immagini più complesse con una risoluzione più elevata.
Il nuovo chip se da un lato farà progredire l’attuale tecnologia di rilevamento delle immagini, dall’altro potrà essere utilizzato per innumerevoli applicazioni su diversi tipi di dati.
Firooz Aflatouni ha detto:
«L’aspetto davvero interessante di questa tecnologia è che può fare molto di più che classificare le immagini. Sappiamo già come convertire molti tipi di dati nel dominio elettrico: immagini, audio, parlato e molti altri tipi di dati. Ora, grazie a questa tecnologia, possiamo convertire diversi tipi di dati nel dominio ottico ed elaborarli quasi istantaneamente. E, che cosa succede quando le informazioni vengono elaborate alla velocità della luce? Per capire la velocità con cui questo chip è in grado di elaborare le informazioni, basti pensare alla frequenza dei fotogrammi tipica dei film, un film di solito viene riprodotto tra i 24 e i 120 fotogrammi il secondo, questo chip sarà in grado di elaborare quasi 2 miliardi di fotogrammi il secondo! Ora per i problemi che richiedono calcoli alla velocità della luce, abbiamo una soluzione, ma molte altre applicazioni non sono ancora immaginabili».
È importante con una tecnologia che ha molte applicazioni, capirne le capacità e i limiti a livelli più fondamentali, i piani attuali e futuri di Firooz Aflatouni per questa ricerca mirano proprio a questo, in conclusione ha detto:
«I nostri prossimi passi in questa ricerca esamineranno la scalabilità del chip e lavoreranno sulla classificazione tridimensionale degli oggetti, poi forse ci avventureremo nel regno della classificazione di dati non ottici. Sebbene la classificazione delle immagini sia una delle prime aree di ricerca per questo chip, sono entusiasta di vedere come verrà utilizzato, magari insieme a piattaforme digitali, per accelerare diversi tipi di calcoli».

Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →