Apple sfrutta la sua intelligenza artificiale con nuove funzioni di accessibilità in arrivo su iOS 17
Con una mossa un po' insolita, Apple ha preannunciato le nuove funzionalità che verranno introdotte sul sito nuove funzionalità che arriveranno su iOS 17 prima dell'annuncio ufficiale. Le principali aggiunte includono Live Speech e Personal Voice Advanced Speech Accessibility, Assistive Access per supportare gli utenti con disabilità cognitive e una nuova modalità di rilevamento in Magnifier per assistere gli utenti con problemi di vista.
Forse la più futuristica è Voce personale, che utilizza l'apprendimento automatico (IA) sul dispositivo per consentire agli utenti che rischiano di perdere la capacità di parlare (come ad esempio le persone a cui è stata recentemente diagnosticata la SLA) di creare una voce che suoni come loro. Gli utenti creano la loro Person Voice addestrando il modello di intelligenza artificiale a ricreare la loro voce leggendo una serie di messaggi di testo randomizzati che richiedono circa 15 minuti per essere completati. Questo si integra con la nuova funzionalità Live Speech, che consente agli utenti di digitare ciò che vogliono dire e di farlo pronunciare ad alta voce durante una telefonata, una chiamata FaceTime o una conversazione di persona.
Assistive Access è stato progettato per prendere le applicazioni più popolari dell'iPhone e ridurle alle loro funzioni più essenziali, rendendole più facili da usare e da interagire. Apple ha collaborato con gli utenti con disabilità cognitive e con i loro sostenitori per rendere più accessibili le applicazioni, tra cui Telefono e FaceTime, trasformandole in un'unica applicazione Chiamate, oltre a semplificare Messaggi, Fotocamera, Foto e Musica. L'obiettivo delle modifiche è quello di ridurre il carico cognitivo degli utenti, in modo che possano ottenere più facilmente ciò che desiderano o godersi l'esperienza dell'iPhone con un numero sostanzialmente inferiore di problemi.
Apple l'azienda ha inoltre presentato in anteprima la Modalità di rilevamento nell'app Magnifier, un altro strumento dotato di intelligenza artificiale, che introduce la funzione Point and Speak per facilitare agli utenti ipovedenti l'interazione con gli oggetti fisici presenti in casa o intorno a loro che presentano diverse etichette di testo. Ad esempio, quando si utilizza un elettrodomestico come un forno a microonde, Point and Speak combina gli input provenienti dalla fotocamera e dallo scanner LiDAR per leggere il testo su ciascun pulsante mentre gli utenti muovono le dita sulla tastiera del forno. Point and Speak funziona anche con People Detection, Door Detection e Image Descriptors per aiutare gli utenti a navigare più facilmente nei loro ambienti.
Sebbene queste prime anticipazioni delle nuove funzioni di accessibilità in arrivo su iOS 17 siano indicative del fatto che WWDC 2023 sarà ricca di annunci, è chiaro che Apple vuole anche dimostrare di non essere rimasta indietro quando si tratta di introdurre funzioni AI nei suoi prodotti.
Acquistate l'ultimo iPhone SE su Amazon sbloccato e rinnovato a 399 dollari.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones