蘋果發(fā)布ARKit 4:功能小幅升級,更加依賴LiDAR
在今天的WWDC20開發(fā)者大會上,蘋果并沒有注重介紹ARKit 4部分,而是在官網(wǎng)低調地進行了更新。本次更新,著重為LiDAR進行深度信息優(yōu)化等功能,功能點不算多。
實際上,在2020款iPad Pro發(fā)布時蘋果就為其搭載的LiDAR推送了ARKit 3.5更新,該更新充分利用了LiDAR激光雷達的特性,加入場景幾何(識別并區(qū)分場景內不同的物體)、即時AR體驗、改進動作捕捉和人體遮擋等新功能。
ARKit 4的主要特性也是圍繞LiDAR來展開,如無意外,LiDAR模組在未來蘋果AR體驗(尤其是穿戴式設備上)中將占據(jù)主導地位。ARKit 4的主要更新如下:深度API、位置錨定、臉部追蹤支持更多設備。
深度API:該功能基于LiDAR數(shù)據(jù),通過LiDAR對每個像素的深度信息進行分析,并與場景幾何的3D網(wǎng)格數(shù)據(jù)結合使用,讓虛擬物體與顯示物體的融合更逼真、自然。同時,還可進一步提升AR測距應用的準確性。
該特性僅支持iPad Pro 2020款設備,后續(xù)具備LiDAR的設備(據(jù)悉iPhone 12最大號的那一款也會配備LiDAR)也會支持。
位置錨定:可將AR虛擬物體放在現(xiàn)實中特定位置,例如一個著名景區(qū),通過位置錨定即可為AR虛擬物體加上經(jīng)緯度、海拔等信息,從而與地理位置永久性的融合。
該功能跟ARKit 2中的持久性體驗(基于保存與加載地圖特性)不同,ARKit 2持久性體驗基于視覺部分,非永久固定,沒有結合地圖的GPS數(shù)據(jù)。僅支持iPhone Xs、iPhone Xs Max、iPhone XR以及更新的iPhone 11系列機型,同時目前僅支持部分地區(qū),因此對于蘋果地圖擴展能力也是一個考驗。
臉部追蹤擴展:將面部追蹤功能擴展到更多設備上,讓更多設備支持AR照片和視頻的玩法。其中,新款iPhone SE僅支持單用戶追蹤,而具備原深感相機TureDepth的設備可同時識別追蹤三個人臉信息,共同實現(xiàn)Memoji、Snapchat等基于前置鏡頭的AR玩法。
該功能僅支持使用A12 Bionic及更新芯片的設備,實際上就是為新款iPhone SE提供了前置AR能力,因為此前AR人臉追蹤僅支持具備原深感相機的設備。
由此可見,ARKit 4在重大功能迭代方面的確表現(xiàn)并沒有之前亮眼,因此我們對于后續(xù)功能和體驗上的優(yōu)化我們也更為期待。
另外,在iPadOS 14的介紹圖中還出現(xiàn)了AR video texttures的功能,后續(xù)我們也會持續(xù)關注。
原文來自ARinChina :http://www.arinchina.com/article-11281-1.html