Apple annuncia ARKit 4 con Location Anchors, API Depth e rilevamento dei volti migliorato

Apple introduce anche ArKit 4 con diverse novità interessanti soprattutto per quanto riguarda l'esperienza AR.

Apple ha annunciato anche l’arrivo di ARKit 4 insieme a iOS 14 e iPadOS 14. La nuova versione di ARKit introduce le Location Anchors, una nuova API Depth e un miglior rilevamento del viso.

Le Location Anchors consentono agli sviluppatori di collocare esperienze AR, come installazioni artistiche a grandezza naturale e informazioni di navigazione in una posizione specifica nel mondo reale, definita da latitudine, longitudine ed elevazione. Il sistema sfrutta i dati ad alta risoluzione presenti in Apple Maps per posizionare le esperienze AR in un determinato punto del mondo, il che significa che potranno essere collocate in luoghi specifici, come nelle città o addirittura accanto a monumenti famosi. Gli utenti potranno spostarsi all’interno degli oggetti virtuali e osservarli da diverse prospettive, esattamente come gli oggetti reali vengono visti attraverso un obiettivo fotografico.

Tutto il processo viene eseguito localmente sul telefono, senza che le informazioni private vengano inviate ai server Apple.

ARKit 4 sfrutta anche lo scanner LiDAR di iPad Pro con una nuovissima API Depth con funzionalità avanzate di comprensione della scena, creando un nuovo modo per accedere a informazioni dettagliate sulla profondità per pixel. Se combinate con i dati mesh 3D, queste informazioni sulla profondità rendono più realistica l’occlusione di oggetti virtuali consentendo il posizionamento istantaneo di oggetti virtuali nel loro ambiente fisico, senza la necessità di scansionare prima la scena con la videocamera. Questo può offrire nuove funzionalità per gli sviluppatori, come prendere misure più precise e applicare effetti in tempo reale all’ambiente circostante.

Infine, il tracciamento dei volti è stato ampliato in ARKit 4 per supportare la fotocamera frontale su tutti i dispositivi con il chip A12 Bionic o più recente. Ora è possibile tenere traccia di un massimo di tre volti contemporaneamente utilizzando la fotocamera TrueDepth e riesce ad acquisire la geometria del volto per capire la grafica da applicare al volto dell’utente, sia per creare un avatar simile a Memoji che catturi le espressioni dell’utente per animare un personaggio virtuale, sia per applicare il trucco virtuale o altri effetti di illuminazione simili a Portrait Lighting nella fotocamera di iOS.

Infine, Apple sta inoltre fornendo una nuova app Reality Converter per portare i modelli 3D sviluppati su uno strumento di creazione di contenuti digitali esterno, nel formato di file usdz utilizzato da ARKit, nonché un aggiornamento a Reality Composer per la creazione e il test di esperienze AR.

NovitàAcquista il nuovo iPhone 16 su Amazon
Dev