I movimenti oculari possono essere decodificati dai suoni che generano nell’orecchio

Gli scienziati ora possono individuare dove guardano gli occhi di qualcuno semplicemente ascoltando le loro orecchie. Jennifer Groh, Professoressa di Neurobiologia, Psicologia, Neuroscienze e Neuroscienze cognitive alla Duke University, ha diretto lo studio, ha affermato:
«È possibile effettivamente stimare il movimento degli occhi, la posizione del bersaglio che gli occhi guarderanno, solo dalle registrazioni effettuate con un microfono nel condotto uditivo».
Jennifer Groh nel 2018 insieme al suo team ha scoperto che quando gli occhi si muovono, le orecchie emettono un rumore sottile e impercettibile. Il team della Duke University in un nuovo documento pubblicato nella rivista Proceedings of the National Academy of Sciences, ha evidenziato che questi suoni possono rivelare dove stanno guardando i tuoi occhi.
La rivelazione funziona anche al contrario, solo sapendo dove qualcuno stava guardando, Jennifer Groh e il suo team sono stati in grado di prevedere come sarebbe stata la forma d’onda del suono sottile dell’orecchio.
I suoni secondo Jennifer Groh potrebbero essere causati quando i movimenti oculari stimolano il cervello a contrarre i muscoli dell’orecchio medio, che in genere aiutano a smorzare i suoni forti, o le cellule ciliate che aiutano ad amplificare i suoni deboli. Lo scopo esatto di questi cigolii nelle orecchie non è chiaro, ma l’intuizione iniziale è che potrebbero aiutare ad affinare la percezione delle persone.
Jennifer Groh ha affermato:
«Pensiamo che questo sia parte di un sistema per consentire al cervello di abbinare la posizione in cui si trovano le immagini e i suoni, anche se i nostri occhi possono muoversi quando la nostra testa e le nostre orecchie non lo fanno».
Comprendere la relazione tra i suoni sottili dell’orecchio e la vista potrebbe portare allo sviluppo di nuovi test clinici per l’udito.
Stephanie Lovich, laureata in psicologia e neuroscienze alla Duke University, ha affermato:
«Se ciascuna parte dell’orecchio fornisce regole individuali per il segnale del timpano, allora queste potrebbero essere utilizzate come una sorta di strumento clinico per valutare quale parte dell’anatomia nell’orecchio non funziona correttamente». 
Il team di ricercatori ha sottolineato che proprio come le pupille dell’occhio si restringono o si dilatano similmente al diaframma il dispositivo interno all’obiettivo che regola la quantità di luce che entra nella fotocamera e raggiunge il sensore, anche le orecchie hanno il loro modo di regolare l’udito.
Gli scienziati hanno a lungo pensato che questi meccanismi di regolazione del suono aiutassero solo ad amplificare i suoni deboli o a smorzare quelli forti, ma nel 2018, Jennifer Groh e il suo team hanno scoperto che questi stessi meccanismi di regolazione del suono, venivano attivati anche dai movimenti oculari, suggerendo che il cervello informa le orecchie sui movimenti degli occhi.
Il team di ricerca nel loro ultimo studio ha dato seguito alla scoperta iniziale, ha indagato se i deboli segnali uditivi contenessero informazioni dettagliate sui movimenti oculari.
Il team di ricerca della Duke University guidato da Jennifer Groh insieme al professor Christopher Shera dell’Università della California del Sud, per decodificare i suoni dell’orecchio delle persone, hanno reclutato 16 adulti con vista e udito perfetti, sottoponendoli nel laboratorio di Jennifer Groh a un esame della vista abbastanza semplice.

Fasi del test
I partecipanti per il test dovevano guardare sullo schermo di un computer un punto verde statico, poi, senza muovere la testa, seguire con gli occhi il punto mentre scompariva e poi riappariva in alto, in basso, a sinistra, a destra o in diagonale dal punto di partenza. Ciò ha fornito al team di Jennifer Groh un’ampia gamma di segnali uditivi generati quando gli occhi si muovevano orizzontalmente, verticalmente o diagonalmente.
Praticamente un eye tracker ha registrato il punto in cui le pupille dei partecipanti si muovevano per confrontarle con i suoni dell’orecchio, che sono stati catturati utilizzando un paio di auricolari dotati di microfono.
Il team di ricerca ha analizzato i suoni dell’orecchio e ha trovato firme uniche per diverse direzioni di movimento. Ciò ha permesso loro di decifrare il codice del suono dell’orecchio e esaminando un’onda sonora, di calcolare facilmente dove le persone avevano guardato.
Stephanie Lovich ha affermato:
«Poiché un movimento oculare diagonale è costituito da una componente orizzontale e da una componente verticale, il mio collega di laboratorio e coautore David Murphy ha capito che è possibile prendere queste due componenti e indovinare quale sarebbe stata la loro combinazione. Poi si può andare nella direzione opposta e osservare un’oscillazione per prevedere che qualcuno stava guardando 30 gradi a sinistra».
Jennifer Groh sta anche testando se le persone che non hanno perdita dell’udito o della vista, genereranno segnali auricolari in grado di prevedere quanto bene potranno comportarsi in un compito di localizzazione del suono, come ad esempio, durante la guida, saper individuare dove si trova un’ambulanza, ciò si basa sulla mappatura delle informazioni uditive su una scena visiva.
Jennifer Groh in conclusione ha affermato:
«Alcune persone hanno un segnale molto riproducibile giorno per giorno e si può misurare rapidamente. Potresti aspettarti che queste persone, rispetto ad altre persone, siano davvero brave in un compito visivo-uditivo dove il segnale è più variabile».

,
Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →