Notebookcheck Logo

Gli ingegneri del Computational Imaging Lab di Stanford sviluppano un prototipo di occhiali olografici AR leggeri e dotati di AI

Gli ingegneri di Stanford sviluppano occhiali AR leggeri e olografici alimentati dall'AI. (Fonte: Stanford)
Gli ingegneri di Stanford sviluppano occhiali AR leggeri e olografici alimentati dall'AI. (Fonte: Stanford)
Gli ingegneri del Computational Imaging Lab di Stanford hanno sviluppato un prototipo di occhiali AR leggeri. La chiave di questa innovazione è un display alimentato dall'AI che proietta un'immagine 3D attraverso una sottile guida d'onda ottica, senza utilizzare lenti ingombranti. Questo apre la porta a occhiali AR olografici commerciali, più leggeri delle cuffie attualmente disponibili

Gli ingegneri dello Stanford Computational Imaging Lab hanno sviluppato un prototipo di occhiali AR leggeri, aprendo la strada a futuri occhiali AR olografici che saranno significativamente più leggeri delle cuffie attualmente disponibili. Un display guidato dall'intelligenza artificiale che proietta un'immagine 3D senza utilizzare lenti ingombranti attraverso due metasuperfici all'interno di una sottile guida d'onda ottica è la chiave di questa innovazione.

Le cuffie AR/VR/XR convenzionali utilizzano in genere lenti di messa a fuoco per proiettare immagini di display micro LED o OLED negli occhi di chi le indossa. Purtroppo, la profondità richiesta per le lenti porta a design ingombranti, come gli smartphone in Google Cardboard o i dispositivi Apple Vision Pro che pesano più di 600 grammi.

I modelli più sottili a volte utilizzano una guida d'onda ottica (si pensi a un periscopio) per spostare il display e le lenti da davanti agli occhi al lato della testa, ma limitano l'utente a immagini e testi 2D. Gli ingegneri di Stanford hanno combinato la tecnologia AI con le guide d'onda metasuperficiali per ridurre il peso e l'ingombro delle cuffie AR, proiettando al contempo un'immagine olografica 3D.

La prima innovazione è l'eliminazione delle ingombranti lenti di messa a fuoco. Invece, le metasuperfici ultrafini incise nella guida d'onda 'codificano' e poi 'decodificano' un'immagine proiettata piegando e allineando la luce. In modo molto approssimativo, si può pensare che sia come spruzzare l'acqua a un'estremità di una piscina secondo un ritmo prestabilito e, quando le onde raggiungono l'altra estremità, si possono leggere le onde per ricreare il ritmo originale. Gli occhiali di Stanford utilizzano una metasuperficie davanti al display e un'altra davanti all'occhio.

Il secondo è un modello di propagazione della guida d'onda per simulare come la luce rimbalza attraverso la guida d'onda per creare immagini olografiche in modo accurato. le olografie 3D dipendono molto dall'accuratezza della trasmissione della luce, e anche variazioni nanometriche nelle superfici della guida d'onda possono alterare notevolmente l'immagine olografica vista. Qui, le reti neurali di convoluzione ad apprendimento profondo che utilizzano un'architettura UNet modificata https://arxiv.org/abs/1505.04597 sono addestrate sulla luce rossa, verde e blu inviata attraverso la guida d'onda per compensare le aberrazioni ottiche del sistema. In poche parole, si pensi a una freccia che punta all'occhio di bue, ma che colpisce solo un po' a destra: ora si sa che bisogna compensare puntando un po' a sinistra.

Il terzo è l'uso di una rete neurale AI per creare immagini olografiche. UN 48 GB Nvidia RTX A6000 da 48 GB è stato utilizzato per addestrare l'intelligenza artificiale su un'ampia gamma di modelli di fase proiettati dal modulo di visualizzazione Holoeye Leto-3 modulo di visualizzazione SLM a sola fase. Nel corso del tempo, l'intelligenza artificiale ha imparato quali modelli potevano creare immagini specifiche a quattro distanze (1 m, 1,5 m, 3 m e infinito).

Nel complesso, il modello AI che alimenta questo auricolare produce immagini 3D significativamente migliori rispetto alle alternative. Sebbene gli occhiali AR di Stanford siano un prototipo, i lettori possono comunque godersi il mondo aumentato oggi con un auricolare leggero come questo su Amazon.

L'AI impara a correggere le abbreviazioni ottiche e altri errori nel sistema per produrre belle immagini 3D. (Fonte: Stanford)
L'AI impara a correggere le abbreviazioni ottiche e altri errori nel sistema per produrre belle immagini 3D. (Fonte: Stanford)
Gli occhiali AR di Stanford utilizzano una guida d'onda metasuperficiale con reti neurali per creare un auricolare sottile e leggero. (Fonte: Stanford)
Gli occhiali AR di Stanford utilizzano una guida d'onda metasuperficiale con reti neurali per creare un auricolare sottile e leggero. (Fonte: Stanford)
Un'intelligenza artificiale viene addestrata su molte immagini di fase per sapere come proiettare le immagini 3D. (Fonte: Stanford)
Un'intelligenza artificiale viene addestrata su molte immagini di fase per sapere come proiettare le immagini 3D. (Fonte: Stanford)
Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 05 > Gli ingegneri del Computational Imaging Lab di Stanford sviluppano un prototipo di occhiali olografici AR leggeri e dotati di AI
David Chien, 2024-05-27 (Update: 2024-05-27)