Insieme a iOS 14 e iPadOS 14, Apple ha annunciato ARKit 4. La nuova versione di ARKit introduce Location Anchors, una nuova Depth API e un miglior tracciamento del viso.
Le Location Anchors consentono agli sviluppatori di collocare esperienze AR, come installazioni artistiche a grandezza naturale o direzioni di navigazione, in una destinazione fissa. La funzione sfrutta i dati ad alta risoluzione in Apple Maps per posizionare le esperienze AR in un determinato punto del mondo, il che significa che le esperienze AR possono ora essere collocate in luoghi specifici, come in città o accanto a monumenti famosi. Gli utenti possono spostarsi all’interno di oggetti virtuali e osservarli da diverse prospettive, esattamente come gli oggetti reali vengono visti attraverso un obiettivo fotografico.
ARKit 4 sfrutta anche lo scanner LiDAR di iPad Pro con una nuovissima API Depth con funzionalità avanzate di comprensione della scena, creando un nuovo modo per accedere a informazioni dettagliate sulla profondità per pixel. Se combinate con i dati mesh 3D, queste informazioni sulla profondità rendono più realistica l’occlusione di oggetti virtuali, consentendo il posizionamento istantaneo di oggetti virtuali nel loro ambiente fisico. Questo può offrire nuove funzionalità per gli sviluppatori, come prendere misure più precise e applicare effetti all’ambiente.
Infine, il tracciamento dei volti è stato ampliato in ARKit 4 per supportare la fotocamera frontale su tutti i dispositivi con il chip A12 Bionic o più recente. Ora è possibile tenere traccia di un massimo di tre volti contemporaneamente utilizzando la fotocamera TrueDepth per alimentare esperienze della fotocamera frontale come Memoji e Snapchat.
Leggi o Aggiungi Commenti