欢迎光临
我们一直在努力
您的位置:首页>VR >

Apple的ARKit 3推出人体遮挡身体跟踪和动作捕捉

在2017年全球开发者大会期间首次推出,Apple的ARKit平台已经发展成为一套强大的工具,适用于希望在iOS设备上创建高端AR体验的开发人员。为了与过去的两次会议保持一致,Apple使用今年的WWDC首次亮相ARKit 3,它为已经很强大的AR平台引入了一系列新的升级。

ARKit 3中包含的大部分升级都围绕着增强环境中的人类存在。尽管该平台的先前版本在人类交互方面受到限制,但ARKit 3将人类遮挡引入混合。这意味着在真人环境中呈现的增强对象将出现在人的前面和后面,具体取决于他们与iOS设备的关系。虽然这看起来似乎是一个小小的补充,但是当涉及到AR时,视角就是一切,并且能够在AR对象周围物理移动会为整体沉浸增加很多。

运动跟踪还可以实现外观,使您可以跟踪人员的准确身体位置以及向关节和骨骼移动。这为与AR元素和体验进行更详细的互动提供了机会。在WWDC上展示的演示是粗略的,但它是朝着基于AR的动作捕捉的令人兴奋的未来迈出了令人兴奋的一步。

得益于iPhone X,iPhone XS,iPhone XS Max,iPhone XR和iPad Pro上的TrueDepth相机,ARKit面部追踪现在可以同时为Memoji和Snapchat等前端应用支持最多三张脸。说到相机,ARKit 3允许同时使用后置和前置摄像头,开启了独特体验的潜力,使用前置摄像头拍摄的面部表情可以影响通过后置摄像头投射的AR内容; 想象一个能够识别和回应用户情绪的AR角色,或完全由面部表情控制的AR游戏。

对于那些有兴趣利用ARKit 3令人兴奋的可能性的人来说,Apple已经发布了RealityKit,这是一个专门用于帮助经验不足的开发人员在iOS平台上创建AR体验的高级框架。RealityKit提供各种基于AR的服务,包括照片般逼真的渲染,多种相机效果,各种动画,高级物理和Swift API。RealityKit甚至可以在多人游戏体验期间为网络提供帮助,并为所有兼容的iOS设备提供自动可扩展性能,这意味着您在iPhone上构建的任何体验都可以在iPad上运行。

RealityComposer与RealityKit协同工作,允许您使用大量动画和音频资源创建自定义交互。开发人员可以自由导入他们自己的个人USDZ文件以用于他们的体验,或者使用AR库中提供的数百个预先构建的数字对象。由于包含了程序内容生成,所有对象的大小,样式和各种其他属性都是高度可定制的。

每个对象都可以与由特定操作触发的交互配对,例如点击屏幕或靠近对象本身。开发人员还可以免费播放空间音频以及各种动画。借助Xcode和实时链接集成,您可以在设备之间轻松移动,以测试各种格式的体验。可以在此处找到所有新改进的完整列表。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。