Visori per realtà aumentata e virtuale: la loro evoluzione

Foto di Jessica Lewis su Unsplash

I moderni visori per realtà aumentata (AR) e realtà virtuale (VR) raggiungono un livello di risoluzione incredibile, con più di decine di milioni di pixel, pur non garantendo immagini nitide. I caschetti spesso fanno socchiudere gli occhi per poter mettere a fuoco o per concentrarsi su un pasticcio sfocato, lasciando molto spesso un senso strisciante di nausea.

Il produttore di microdisplay KOPIN, di Westborough, Massachusetts, che lavora in collaborazione con il Computer Science & Artificial Intelligence Laboratory del MIT, potrebbe avere una soluzione: il NeuralDisplay. Combina il tracciamento oculare con l’apprendimento automatico per compensare la visione dell’utente al volo senza ottiche aggiuntive.

“Ci siamo chiesti: come possiamo cambiare la tecnologia per l’utente e non costringere l’utente a provare a cambiare se stesso, a utilizzare la tecnologia? E la risposta che è arrivata è stata l’intelligenza artificiale”, afferma Michael Murray, CEO di KOPIN.

Il primo NeuralDisplay è un micro-OLED quadrato da 1,5 pollici con una risoluzione di 3.840 x 3.840 e una luminosità massima di 10.000 candele. Queste specifiche lo collocano alla pari con altri micro-OLED leader, come il micro-OLED 4K da 1,3 pollici di Sony. Ha anche un’insolita disposizione a quattro pixel che posiziona i sub-pixel rossi, blu e verdi accanto a un quarto pixel contenente un pixel imager.

Il pixel imager ha il compito di misurare la luce riflessa dagli occhi dell’utente. È simile nel concetto a una fotocamera digitale, ma più semplice nell’esecuzione, poiché gli imager funzionano in bianco e nero e si concentrano sulla misurazione della luminosità. È sufficiente per dedurre dettagli sugli occhi di un utente, inclusa la direzione dello sguardo, la posizione degli occhi rispetto allo schermo e la dilatazione delle pupille.

Queste misurazioni confluiscono in un modello di intelligenza artificiale che impara a compensare le peculiarità della visione di ciascun utente regolando la luminosità e il contrasto del display. “Pensalo come due manopole, luminosità e contrasto, che possiamo ruotare in tempo reale”, afferma Murray. I pixel imager continuano a effettuare letture, che vengono reimmesse nell’algoritmo di apprendimento automatico per regolare continuamente l’immagine. “L’elemento di tracciamento oculare consiste nell’avere un ciclo di feedback nel sistema. Questi cambiamenti hanno fatto qualche differenza e com’è l’esperienza dell’utente?”

I dati non vengono inviati al cloud e nemmeno a un dispositivo connesso, ma gestiti da un acceleratore AI integrato nel display. Mantenere i dati locali è necessario per elaborarli con la velocità richiesta dalla visione umana. Murray afferma che il cervello umano può interpretare ciò che vede in soli 500 microsecondi, dopodiché diventano evidenti i problemi causati dall’ottica delle cuffie. Il posizionamento dell’acceleratore AI a bordo mantiene la latenza sotto controllo e garantisce che il modello AI riceva nuovi dati in modo affidabile.

Il NeuralDisplay non è una panacea, confessano i suoi creatori, e la sua capacità di compensare la miopia o la presbiopia è incerta. “Stiamo ancora testando quella parte”, afferma Murray. Ma il display può aiutare con altri problemi comuni che portano a nausea, disagio e disorientamento durante l’utilizzo di un visore AR/VR. “Il mio problema con Apple Vision Pro, ad esempio, è che il mio occhio destro è dominante in tutto ciò che faccio. Se metti due display perfetti davanti ai miei occhi, mi viene la nausea, perché il mio cervello non riesce a gestire quel livello di dettaglio nel mio occhio sinistro.”

Gli ingegneri dei visori devono anche tenere conto delle differenze nella distanza interpupillare (la distanza tra il centro di ciascuna pupilla), nella profondità dell’occhio e nella forma del viso.

La maggior parte dei caschetti attuali tenta di correggere queste differenze con regolazioni fisiche che modificano la loro forma e le loro dimensioni. I proprietari di Meta Quest 3 possono ruotare una manopola per regolare il visore per una distanza interpupillare compresa tra 53 e 75 millimetri (Meta afferma che questo soddisfa il 95% degli utenti). Dispone inoltre di pulsanti di “estrazione pupillare” che regolano la profondità dell’occhio.

Queste funzionalità sono utili, ma complicate e supportano una gamma limitata di regolazioni. Si basano anche sulla regolazione manuale o utilizzano una semplice regolazione automatica che richiede all’utente di avere un’idea di come funziona il sistema. Coloro che non capiscono come regolare i visori o non sanno che è possibile, probabilmente proveranno disagio. La regolazione automatizzata del livello di visualizzazione di NeuralDisplay potrebbe eliminare la necessità dell’intervento dell’utente, rendendo i visori AR/VR più accessibili.

“In definitiva, inserire più lenti in un componente elettronico [per correggere la vista di un utente] infrange le leggi dell’elettronica di consumo, ovvero dimensioni, peso, potenza e usabilità”, afferma Murray. “Stiamo cercando di riscrivere quell’equazione“.