Apple Il riassunto del brevetto Vision Pro AI 'mind-reading' porta a un FUD distopico per i futuri utenti di visionOS
Applel'anteprima trionfale di Vision Pro durante la WWDC23 ha raccolto da allora riferimenti a Black Mirror da ogni parte, soprattutto grazie alle dichiarazioni di un'esperienza di precisione che si avvicina a un "chip cerebrale"cervello-chip' quanto umanamente possibile, soprattutto per un XR di prima generazione XR di prima generazione.
Ora, Sterling Crispin, un utente di Twitter che afferma di aver "trascorso il 10% della mia vita a contribuire allo sviluppo di #VisionPro mentre lavoravo presso Apple come ricercatore di prototipi di neurotecnologie nel gruppo di sviluppo tecnologico di Apple Reality headset tipped to feature 'see-through' effect and digital crown " afferma che il dispositivo è (o, forse più precisamente, un giorno diventerà) "un'interfaccia cervello-computer grezza Elon Musk's Neuralink project reportedly expands with signs of upcoming clinical trials in humans ".
Crispin elabora questa definizione con un'effervescente (e leggermente redatta a causa degli NDA) discussione su Twitter sul brevetto a cui ha contribuito nel corso dello sviluppo di Vision Pro Apple. A quanto pare, questi includono la proprietà intellettuale su AI per prevedere le "risposte emotive e cognitive" dell'utente, attraverso vari sensori montati sulle cuffie.
Ciò potrebbe portare alla capacità di "dedurre" questi dati "facendoapparire rapidamente immagini o suoni all'utente in modi che potrebbe non percepire, e misurando poi la sua reazione". Queste tecniche potrebbero avere applicazioni come la previsione di clic sofisticati attraverso l'analisi delle pupille dell'utente.
Apple i ricercatori neurotecnici hanno osservato che questa parte dell'occhio umano tende a muoversi in modi specifici prima dell'equivalente di un clic del mouse sulle cuffie. Inoltre, l'intelligenza artificiale è programmata per "creare biofeedback con il cervello dell'utente monitorando il suo comportamento oculare, e [ridisegnare] l'interfaccia utente in tempo reale per creare una maggiore risposta anticipata delle pupille".
A prima vista questo potrebbe sembrare eccessivamente invasivo; d'altra parte, il"biofeedback" in questione è ormai comunemente utilizzato nella sanità non invasiva sanitario non invasiva per aiutare a trattare una serie di condizioni fisiche e mentali. Inoltre, Crispin ha indicato che l'apprendimento automatico risultante potrebbe servire soprattutto ad analizzare i progressi nei casi d'uso di Vision Pro come XR o la nuova funzione Mindfulness.
A quanto pare dipende anche da una serie di sensori valutati per misurare o stimare "l'attività elettrica nel cervello"; battiti del cuore e ritmi cardiaci; attività muscolare; densità del sangue nel cervello; pressione sanguignae conduttanza cutanea", nessuno dei quali è stato finora menzionato in relazione al Vision Pro e alle sue avanzate capacità di tracciamento oculare.
Inoltre, Apple ha dichiarato categoricamente che non sarebbe stato a conoscenza dei dati sullo sguardo degli utenti non sarebbe venuto a conoscenza dei dati sullo sguardo degli utenti in applicazioni come il browser Safari durante il keynote della WWDC23. Ciononostante, il thread di Crispin è ora un'ulteriore fonte d'ispirazione per le riflessioni sui potenziali lati negativi dell'ambizione di dell'ambizione di Apple di rendere l'elaborazione spaziale in futuro.
Acquistate la "cuffia multi sensore" con tracciamento della meditazione MUSE 2 su Amazon
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones