在苹果发布iOS 14和新的macOS Big Sur期间,苹果还推出了其新的ARKit 4,带来了许多新功能,包括定位锚,新的深度API和改进的面部跟踪功能。
位置锚定允许开发人员将您的AR创作锚定在特定的纬度,经度和海拔坐标上。用户可以在虚拟对象周围移动,并从不同的角度查看它们,就像通过摄像机镜头看到的真实对象一样。在所有配备A12 Bionic芯片及更高版本的设备(包括新的iPhone SE)上,对面部跟踪的支持都扩展到了前置摄像头。“
LiDAR扫描仪内置的高级场景理解功能使该API可以使用有关周围环境的每像素深度信息。当与“场景几何”(Scene Geometry)生成的3D网格数据结合使用时,此深度信息通过启用虚拟对象的即时放置并将其与周围环境无缝融合,使虚拟对象的遮挡更加逼真。这可以在您的应用程序内推动新功能,例如进行更精确的测量并将效果应用于用户环境。”
“ iPadOS上的ARKit 4引入了全新的Depth API,为访问由iPad Pro上的LiDAR扫描仪收集的详细深度信息提供了一种新方法。位置锚定利用Apple Maps中的高分辨率数据将AR体验放置在iPhone和iPad应用程序中的特定位置。支持面部跟踪的功能扩展到所有带有Apple Neural Engine和前置摄像头的设备,因此,更多的用户可以在照片和视频中体验到AR的乐趣。”