苹果公司近几年推出的最具创新性的发明之一是True Depth camera。作为开发者,深度相机为我们打开了一个充满可能性的世界,特别是在人脸交互领域。
在我们开始这个ARKit教程之前,简单介绍一下相机的不同部分。与大多数iPhone/iPad前置摄像头一样,True Depth camera配有麦克风、700万像素摄像头、环境光传感器、近距离传感器和扬声器。True Depth camera本身是增加了一个点投影仪,泛光照明,和红外相机。
点投射器在你的脸上投射出超过30,000个不可见的点来构建一个本地地图(你将在本教程的后面看到这一点)。红外摄像机读取圆点图案,捕获红外图像,然后将数据发送到A12/A13仿生芯片,以确认匹配。最后,漫射照明装置允许不可见的红外线识别你的脸,即使是在天黑的时候。这些功能可以让我们一起创造了一些神奇的体验,如Animojis和Memojis,当然还有炫酷的AR效果。
以下内容由公众号:AIRX社区(国内领先的AI、AR、VR技术学习与交流平台) 整理
效果预览
Step 1:新建项目
打开Xcode,选择AR模版创建,Content Technology选择SceneKit
打开Main.storyboard
在视图中添加一个UIView和一个UILabel。告诉用户他们正在做的面部表情。将一个UIVi