详解iOS之ARkit追踪技术以及其他技术的未来

在这篇文章中,我们能学习到

1,追踪技术的未来,

2,AR 计算机视觉的未来,

3,AR 其他技术的未来

追踪技术的未来

详解iOS之ARkit追踪技术以及其他技术的未来

人的身体有视觉、听觉、嗅觉味觉、触觉和运动五大感知系统,然而我们所接收的80%的信息都来自于眼睛。

眼睛不仅是我们的输入主设备,也是我们的输出设备。俗话说:“眼睛是心灵的窗户”,情侣之间的爱意也是靠眼波的流连婉转。眼睛透露出我们很多的“秘密”。

这是小编的一个ios,java学习交流群659170228

详解iOS之ARkit追踪技术以及其他技术的未来

目前我们的人机交互还主要靠的是键盘、鼠标、触摸,这些输入并不直接也不高效。人机互动的发展方向应该是越来越人性化,要能“听”、能“看”,能主动探索和回应需求。

眼球追踪就是这样一个让机器人更懂人类的技术。眼球追踪主要是研究眼球运动信息的获取、建模和模拟。一是根据眼球和眼球周边的特征变化进行跟踪,二是根据虹膜角度变化进行跟踪,三是主动投射红外线等光束到虹膜来提取特征。

眼球追踪技术的发展由来已久,应用的场景广泛。在心理学实验中,可以通过人的瞳孔变化来监测一个人是否在说谎;在广告效果监测方面可以通过人眼注视点的移动来判断人的偏好;而到了人机交互方面,眼睛可以取代键盘、鼠标和触屏,一些手机可以在人眼离开时暂停视频播放,也有残障人士通过眼睛打字完成了一本书的写作。

不少消息都提到苹果将会在下一代的 iPhone 上使用全新的生物识别技术,而面部识别近期一直都被不少分析师提及,当然,苹果最近又收购了一家相关的企业,到目前为止苹果公司已经收购了多家面部识别公司,不过现在,我们或许可以暂时将面部识别放到一边,先讨论一下眼球跟踪的潜力如何?

而一些技术人员也提到,眼球跟踪传感器为我们提供了两个好处,首先,它使设备知道用户在任何时间点感兴趣的内容,第二,它提供了一个额外的方式,让用户与内容进行交互,而不需要借助其他任何的东西,这意味着它增加了用户和设备之间的紧密的联系。

而且在日常生活中,眼球追踪技术最热门的载体是手机。苹果的竞争对手三星和LG其实都已经在使用相关的技术,而且该技术还可以在笔记本电脑或者显示器上发挥自己的左右,成为一种标准的功能,所以说,如果苹果要为自己的设备配置类似的技术也是合情合理。

相关人士也提到,在过去一年时间里,眼球跟踪技术作为一个有前景的技术,正被更多的消费者认识,同时也开始渐渐出现在一些商业产品上。

大家都知道苹果对于 AR/VR 领域非常感兴趣,而且不少人都认为 AR/VR 会成为苹果下一个大事件,而 VR 设备与眼球跟踪传感器简直就是一对“绝配”。不少 VR 公司都在眼球跟踪传感技术上投入了大量的精力,而且,眼球跟踪技术也被视为对 VR 技术一个很好的补充。

VR 设备会让我们感受到极佳的沉浸式体验,所以说,VR 设备需要让我们真正感受到身临其境的感觉。所以眼球跟踪技术对于移动渲染来说,是非常关键的技术,专家提到,眼球跟踪技术将是下一代 VR 设备的关键部分,而对于现在依然还没有投身到 VR 领域的苹果来说,他们会不会好好利用眼球跟踪技术呢?

眼球跟踪技术对于推动游戏方面同样也会起到非常关键的作用。几十年来,我们使用游戏手柄,操纵杆,键盘,鼠标和其他外设,使 PC 和视频游戏机了解我们正在“看着”的地方。但是在未来,或许使用眼动跟踪,您的计算机已经知道您正在查看什么,并可以做出相应的反应。在苹果的 Mac 电脑上装配眼球跟踪传感器?为什么不呢?

深入学习确实对研究追踪系统有重大影响。目前为止,基于追踪系统的深度学习大约产生 10% 的误差,其中顶级的 VIO 系统的误差只有个位数,这一数字还在变小,并且将优化室外重新定位。

双摄像头或鱼眼镜头有助于看到更大的场景,可以捕获更多的光学特征。例如:普通镜头可能只看到白色的墙壁,鱼眼镜头下可以看到天花板的图案和地毯,Tango 和 HoloLens 均采用了这种方案。而且,双摄像头或鱼眼镜头可获得深度信息,其运算成本要低于 VIO,但是 VIO 使用低成本的 Bom 和低功耗便能获得深度信息。

由于双摄像头手机的摄像头(即便是 HMD)所处位置很接近,所以摄像头的精确范围对于深度计算来说,非常有限。相隔几厘米的摄像头只能精确几米范围内的深度。

而从头到尾追踪最关键的是,支持更大范围的追踪,尤其是支持户外数钱公里的范围追踪。在这点上,AR 追踪和无人驾驶跟踪几乎没有区别,只是 AR 系统使用较少的传感器,耗能也较低。最终,任何设备都将适用于大范围追踪,云服务也是必须的,故而,Google 最近宣布了 Tango 的视觉定位服务意图也在此。未来几个月我们将看到这些变化,这也是每个人现在都关心 3D 地图的原因。

AR 计算机视觉的未来

详解iOS之ARkit追踪技术以及其他技术的未来

6 Dof 位置追踪技术将在未来 12-18 个月内完全商品化,覆盖所有设备。现在还有哪些问题亟待解决呢?

3D 重建系统,HoloLens 称之为空间映射(Spatial Mapping),Tango 称之为深度感知(Depth Perception)。3D 重建系统能够找出场景中真实物体的形状或结构。这个技术允许虚拟内容隐藏于现实世界后面。

这让人们出现概念混淆,认为 AR 便是“混合”现实,其实是增强现实,多数 AR demo 并没有 3D 重建系统的支持,所以 AR 内容只是覆盖于所有真实世界物体的前面。

3D 重建系统通过从场景中捕获密集点云(今天使用深度摄像头),将其转换为网格,将“隐形”网格连同真实世界的坐标导入 Unity 中,然后当真实世界的景象出现在摄像头中时,把那些网格放置在真实的景象上。

这意味着虚拟内容可以与现实世界互动。注意 2D 版本的ARKit 通过检测 2D 平面实现,这是最为基本的要求。倘若 ARKit 没有参照地面,用 Unity 制作的内容肯定会肆意“漂浮”。

图片中,Magic Leap 公司演示了一款躲在桌腿后面的机器人。我们不知道桌子腿是实时重建,还是预先建模,再把虚拟机器人放在真实桌子腿的后面。

上述提到的深度摄像方面问题在 3D 重建上仍然存在,这就是为什么目前无法广泛使用。研究人员正在研究,让单目 RGB 摄像头支持实时的照片级 3D重建。这个技术至少需要 12-18 个月才能应用于产品中。也是因为这样,我才认为“真正的”消费级 AR 头戴设备依旧离我们很远。

在 2012 年,Dekko 的 3D 重建系统可在 iPad 2 上工作。我们不得不将网格显示出来,否则用户不敢相信他们所看到的(追踪系统可理解现实世界)。图中越野车刚刚完成了跳跃,部分隐藏在纸巾盒后面。

3D 重建之后,有许多有趣的研究注解 3D 场景。你现在能看到的几乎所有的计算机视觉深度学习使用的是 2D 图像,但对于AR(汽车、无人机等),我们需要在 3D 中从语义方面理解这个世界。

详解iOS之ARkit追踪技术以及其他技术的未来

图片为一例 3D 场景语义解释。 底部是原始图,中间是 3D 模型(可能由立体相机或 LIDAR 构建),最上面是通过深度学习的图像分割,所以我们能从中分辨出人行道。这对《Pokemon Go》也十分有用。

然后,我们需要弄清楚,如何将所有惊人的技术扩展到实时支持多个用户。这是终极目标。

随着 3D 重建所需容量越来越大,我们需要了解如何将其托管至云服务,让多个用户共享并扩展模型。

AR 其他技术的未来

详解iOS之ARkit追踪技术以及其他技术的未来

AR 其他技术的未来说起来太广泛,先谈谈要进一步发展的技术:

光学:视野范围、镜头尺寸、分辨率、亮度、焦深、聚光度等等都需要解决。

我们会看到一些“过渡性”的 HMD 设计,它们受制于一些关键参数,只试图解决一个问题,如社交性,或是追踪技术,或是企业用户案例,以及其他,之后我们才能看到最终的消费级产品方案。

渲染:使虚拟内容与现实世界融合。

确定真正的光源,将其与虚拟世界相匹配,使阴影和纹理看起来很合理。这个技术是好莱坞 SFX 多年来一直努力的方向。但是对于 AR 来说,需要在手机上实时完成,并且不会影响到真实世界的光或背景,即便是琐碎的事情也很重要。

输入:这方面还有很长的路要走。

研究表明,多模式输入系统效果最佳(有谣言说苹果正在做这方面的事情)。多模式意味着各种各样的输入“模式”,如手势、语音、计算机视觉、触感、眼睛跟踪等,为最好理解用户意图,AI 也应该一起考虑进去。

图形用户界面(GUI)和应用程序:目前还没有我们想象中的 AR APP。

我们只想看看 Sonos (无线智能音响)在设备上显示控件,并不想选择 Sonos 按钮。而且我们一直关注的是视野范围内画面,和与实现世界的交互,没有人知道该如何呈现,但肯定不会是 4 x 6 的网格图像。

社会问题:只有 Apple 和 Snap 知道如何营销时尚,AR HMD 的销售可能只是人们最求时尚。这个问题或许比所有技术问题都难以解决。

各位看官觉得小编写的不错 可以点一波关注跟收藏!给小编一点鼓励跟动力!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
课程介绍 本套课程从技术理念到项目实践,教大家系统掌握ARKit技术开发,随心打造iOS端AR增强现实应用。由一开始的开发环境搭建,到Unity ARKit Plugin、ARFoundation ARKit等不同时期技术的讲解。从平面模型放置、识别图片、手势交互、3D物体识别、面部AR贴纸、光照估计、环境探针、多人AR技术,甚至包含ARKit3.0的动作捕捉技术等。除了以上课程内容,更加入了随着技术更新与时俱进更新的ARKit连载技术教学内容。课程收益 轻松理解ARKit技术原理,从零到一创建自己的第一个AR项目。学习UnityARKit Plugin经典技术,了解ARKit中的常见概念和原理。学会在 ARFoundation 中使用ARKit,进行企业级AR项目开发。学会如何在AR项目里播放模型动画,通过触屏手势交互实现模型的旋转和缩放。 了解ARKit的图片识别,掌握AR卡片、AR书籍的实现方法。 学会使用面部增强技术,实现热门短视频应用的AR贴纸效果,实现面部表情追踪。学会使用ARKit物体检测技术,实现3D物体识别,可以广泛应用于工业、建筑、古董、玩具手办、艺展览等不同场景。学习ARKit中的经典交互案例,优化AR项目的用户体验。熟练使用环境纹理、光照估计技术,让AR内容随当前现实场景自动变化调节,看起来更加真实。基于WorldMap、CollaborativeSession AR技术,实现AR场景的持久化及多人AR体验效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值