Apple ha annunciato anche l’arrivo di ARKit 4 insieme a iOS 14 e iPadOS 14. La nuova versione di ARKit introduce le Location Anchors, una nuova API Depth e un miglior rilevamento del viso.
Le Location Anchors consentono agli sviluppatori di collocare esperienze AR, come installazioni artistiche a grandezza naturale e informazioni di navigazione in una posizione specifica nel mondo reale, definita da latitudine, longitudine ed elevazione. Il sistema sfrutta i dati ad alta risoluzione presenti in Apple Maps per posizionare le esperienze AR in un determinato punto del mondo, il che significa che potranno essere collocate in luoghi specifici, come nelle città o addirittura accanto a monumenti famosi. Gli utenti potranno spostarsi all’interno degli oggetti virtuali e osservarli da diverse prospettive, esattamente come gli oggetti reali vengono visti attraverso un obiettivo fotografico.
Tutto il processo viene eseguito localmente sul telefono, senza che le informazioni private vengano inviate ai server Apple.
ARKit 4 is ? pic.twitter.com/UDRIPWit86
— Joel Bernstein (@CastIrony) June 23, 2020
ARKit 4 sfrutta anche lo scanner LiDAR di iPad Pro con una nuovissima API Depth con funzionalità avanzate di comprensione della scena, creando un nuovo modo per accedere a informazioni dettagliate sulla profondità per pixel. Se combinate con i dati mesh 3D, queste informazioni sulla profondità rendono più realistica l’occlusione di oggetti virtuali consentendo il posizionamento istantaneo di oggetti virtuali nel loro ambiente fisico, senza la necessità di scansionare prima la scena con la videocamera. Questo può offrire nuove funzionalità per gli sviluppatori, come prendere misure più precise e applicare effetti in tempo reale all’ambiente circostante.
Apple demonstrated its new Depth and Scene Geometry APIs that use #LiDAR to rapidly map out and identify objects in a scene for rich AR experiences #ARKit4 #WWDC20 pic.twitter.com/rD2KQys4vk
— Daniel Eran Dilger (@DanielEran) June 25, 2020
Infine, il tracciamento dei volti è stato ampliato in ARKit 4 per supportare la fotocamera frontale su tutti i dispositivi con il chip A12 Bionic o più recente. Ora è possibile tenere traccia di un massimo di tre volti contemporaneamente utilizzando la fotocamera TrueDepth e riesce ad acquisire la geometria del volto per capire la grafica da applicare al volto dell’utente, sia per creare un avatar simile a Memoji che catturi le espressioni dell’utente per animare un personaggio virtuale, sia per applicare il trucco virtuale o altri effetti di illuminazione simili a Portrait Lighting nella fotocamera di iOS.
Infine, Apple sta inoltre fornendo una nuova app Reality Converter per portare i modelli 3D sviluppati su uno strumento di creazione di contenuti digitali esterno, nel formato di file usdz utilizzato da ARKit, nonché un aggiornamento a Reality Composer per la creazione e il test di esperienze AR.