Insieme a iOS 13.4 e iPadOS 13.4, Apple ha rilasciato ARKit 3.5 per consentire agli sviluppatori di sfruttare il nuovo scanner LiDAR nel nuovo iPad Pro. L’ultima versione di ARKit presenta Scene Geometry, Instant AR e Motion Capture e People Occlusion migliorati.
Apple ha annunciato l’aggiornamento in un post sul suo sito web per gli sviluppatori:
ARKit 3.5 sfrutta il nuovo scanner LiDAR e il sistema di rilevamento della profondità su iPad Pro per supportare una nuova generazione di app AR che utilizzano Scene Geometry per una migliore comprensione della scena e occlusione degli oggetti. E ora, le esperienze AR su iPad Pro sono ancora migliori con il posizionamento AR istantaneo e Motion Capture migliorato e People Occlusion, il tutto senza la necessità di scrivere un nuovo codice.
Ecco come Apple descrive i tre principali cambiamenti di ARKit 3.5:
Scene Geometry
Scene Geometry ti consente di creare una mappa topologica del tuo spazio con etichette che identificano pavimenti, pareti, soffitti, finestre, porte e sedie. Questa profonda comprensione del mondo reale sblocca l’occlusione degli oggetti e la fisica del mondo reale per gli oggetti virtuali e ti dà anche maggiori informazioni per alimentare i tuoi flussi di lavoro AR.
Instant AR
Lo scanner LiDAR su iPad Pro consente un rilevamento aereo incredibilmente rapido, consentendo il posizionamento istantaneo di oggetti AR nel mondo reale senza scansione. Il posizionamento AR istantaneo viene abilitato automaticamente su iPad Pro per tutte le app create con ARKit, senza modifiche al codice.
Improved Motion Capture and People Occlusion
Con ARKit 3.5 su iPad Pro, la stima della profondità in People Occlusion e la stima dell’altezza in Motion Capture sono più accurate. Queste due funzionalità migliorano su iPad Pro in tutte le app realizzate con ARKit, senza alcuna modifica del codice.
Lo scanner LiDAR utilizza la luce riflessa per misurare la distanza dal sensore agli oggetti circostanti fino a cinque metri di distanza, all’interno e all’esterno. I framework di profondità in iPadOS combinano i punti di profondità misurati dallo scanner LiDAR, i dati delle due telecamere e i dati dei sensori di movimento con algoritmi di visione computerizzata gestiti da A12Z Bionic per creare una comprensione dettagliata e completa di una scena.
Al momento, il nuovo scanner LiDAR con le sue potenziate funzionalità di realtà aumentata è limitato ai nuovi modelli iPad Pro, ma si prevede che anche Apple includerà la funzionalità in alcuni modelli di iPhone 2020 che saranno rilasciati questo autunno.
Leggi o Aggiungi Commenti