Notebookcheck Logo

Epic Games aggiorna Live Link Face per il mocap dell'iPhone in tempo reale

Un iPhone cattura le espressioni facciali in tempo reale, guidando l'animazione digitale dei personaggi all'interno di Unreal Engine utilizzando Live Link Face e MetaHuman Animator (Fonte immagine: Epic Games via blog Unreal Engine)
Un iPhone cattura le espressioni facciali in tempo reale, guidando l'animazione digitale dei personaggi all'interno di Unreal Engine utilizzando Live Link Face e MetaHuman Animator (Fonte immagine: Epic Games via blog Unreal Engine)
L'aggiornamento Live Link Face 1.4.2 migliora la mocap facciale in tempo reale dell'iPhone per Unreal Engine. Epic Games corregge il bug dell'inserimento dell'IP regionale, migliorando i flussi di lavoro dei creatori. Utilizzata con MetaHuman Animator, l'applicazione acquisisce prestazioni facciali ad alta fedeltà per i personaggi digitali.

Epic Games ha rilasciato la versione 1.4.2 della sua applicazione Live Link Face introducendo una piccola ma significativa correzione che migliora l'esperienza di cattura facciale in tempo reale per gli utenti iPhone. L'aggiornamento risolve un problema regionale che in precedenza impediva ad alcuni utenti di inserire manualmente gli indirizzi IP - un passaggio necessario quando si collega l'app a Unreal Engine attraverso diversi ambienti di rete.

Lanciata per la prima volta nel 2020, Live Link Face trasmette i dati di movimento del viso dalla fotocamera TrueDepth di un iPhone direttamente a Unreal Engine. Se utilizzato insieme a MetaHuman Animatori creatori possono mappare intricati movimenti facciali su personaggi digitali in tempo reale - non è necessario studio mocap necessario.

"Ogni sottile espressione, sguardo ed emozione viene catturata con precisione e replicata fedelmente sul suo umano digitale", ha dichiarato Epic Games nel suo annuncio.

La tecnologia è diventata sempre più preziosa in una varietà di settori creativi. Dagli sviluppatori di giochi indie e dagli studi di animazione ai VTubers e ai livestreamers, molti utilizzano lo strumento per migliorare i personaggi digitali con performance espressive e in tempo reale. Il designer di personaggi veterano Aaron Sims - noto per film come Men in Black e Gremlins 2 - ha elogiato il progresso, dicendo: "Possiamo portare il realismo fino al poro". Come persona che realizzava marionette e protesi, ora posso fare tutto ciò che voglio"

Catturare tali sfumature, tuttavia, spesso richiede agli interpreti più di quanto ci si possa aspettare. Per creare i dati utilizzati da MetaHuman Animator, agli attori viene spesso chiesto di fornire un ampio catalogo di espressioni facciali, dai micromovimenti alle transizioni emotive complete. Il processo è fisicamente impegnativo, con sessioni di scansione che assomigliano a un allenamento di resistenza e controllo muscolare. In alcuni casi, gli interpreti passano attraverso decine di espressioni esagerate in una sola seduta, il tutto mantenendo la coerenza per una replica digitale ad alta fedeltà.

L'applicazione porta avanti anche la missione più ampia di Epic di democratizzare i flussi di lavoro di animazione di alto livello. Abbassando la barriera d'ingresso, l'azienda consente ai team più piccoli e ai creatori solitari di ottenere un'animazione facciale di livello professionale utilizzando strumenti ampiamente disponibili come l'iPhone.

Oltre all'acquisizione delle prestazioni, Epic ha esplorato anche le applicazioni biometriche. Nel 2023, l'azienda ha collaborato con le aziende di verifica dell'identità Yoti e SuperAwesome per proporre un sistema di riconoscimento facciale per la stima dell'età. Presentata alla Federal Trade Commission degli Stati Uniti, la domanda FTC mirava a migliorare la sicurezza online dei bambini attraverso metodi di verifica dell'età attenti alla privacy. Anche se alla fine la proposta è stata respinta, PC Gamer ha notato che l'idea potrebbe non essere definitivamente accantonata.

Dall'aprile 2025, Live Link Face rimane scaricabile gratuitamente sull'App Store e continua a ricevere aggiornamenti incrementali. Sebbene la versione 1.4.2 sia di portata relativamente minore, offre importanti miglioramenti di usabilità per i creatori che lavorano in configurazioni di rete non standard o limitate.

Un attore utilizza gli strumenti di cattura del movimento facciale con Unreal Engine in uno studio professionale (fonte: Epic Games via blog Unreal Engine)
Un attore utilizza gli strumenti di cattura del movimento facciale con Unreal Engine in uno studio professionale (fonte: Epic Games via blog Unreal Engine)

Fonte(i)

App Store - Live Link Face: apps.apple.com/us/app/live-link-face/id1495370836
MetaHuman Animator - Official Unreal Engine Blog: www.unrealengine.com/en-US/blog/delivering-high-quality-facial-animation-in-minutes-metahuman-animator-is-now-available
Yoti/SuperAwesome FTC Submission (PDF): www.ftc.gov/system/files/ftc_gov/pdf/Application-for-a-new-VPC-method-ESRB-SuperAwesome-Yoti-06-02-2023.pdf
PC Gamer on FTC Response: https: //www.pcgamer.com/gaming-industry/us-government-denies-esrbs-ai-powered-face-scanning-age-estimation-proposal-but-its-probably-not-gone-for-good

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 04 > Epic Games aggiorna Live Link Face per il mocap dell'iPhone in tempo reale
Louise Burke, 2025-04-13 (Update: 2025-04-13)