ARKit从入门到精通(4)-ARKit全框架API大全

1.1-ARKit框架简介

  • 再上一小节中,相信大家已经对<ARKit>框架的使用及原理有了一个全局的认识,为了能够更加深入的研究学习ARKit技术,所以笔者本小节主要介绍<ARKit>框架中所有的API

    • 本篇主要翻译自苹果官方文档,适当加上一些笔者的见解

  • ARKit框架类图

ARKit从入门到精通(4)-ARKit全框架API大全 ARKit教程


0501.png


1.2-ARAnchor


  • ARAnchor表示一个物体在3D空间的位置和方向(ARAnchor通常称为物体的3D锚点,有点像UIKit框架中CALayer的Anchor)

    • 也就是说ARFrame用于捕捉相机的移动,其他虚拟物体用ARAnchor

    • ARFrame表示的也是物体的位置和方向,但是ARFrame通常表示的是AR相机的位置和方向以及追踪相机的时间,还可以捕捉相机的帧图片

@interface ARAnchor : NSObject <NSCopying>
/**标识符*/
@property (nonatomic, readonly) NSUUID *identifier;
/**锚点的旋转变换矩阵,定义了锚点的旋转、位置、缩放。是一个4x4的矩阵(读者可以自行科普什么叫4x4矩阵)*/
@property (nonatomic, readonly) matrix_float4x4 transform;
/**构造方法,一般我们无需构造。因为添加一个3D物体时ARKit会有代理告知我们物体的锚点*/
- (instancetype)initWithTransform:(matrix_float4x4)transform;
@end


1.3-ARCamera


  • *AR相机,该类API较多,并且理解比较困难,将会在后续小节单独介绍

    • 该类非常重要,且API较多,将在后续小节介绍


1.4-ARError


  • ARError是一个描述ARKit错误的类,这个错误来源于几个方面,例如设备不支持,或者当相机常驻后台时ARSession会断开等问题

//作用域,一般会表示是哪一个类出现问题NSString *const ARErrorDomain;//错误码描述  100:不支持会话追踪配置,主线由于A9芯片以下的机型会报错   101:失活状态 102:传感器故障  200:追踪失败
typedef NS_ERROR_ENUM(ARErrorDomain, ARErrorCode) {   
/** Unsupported session configuration. */    ARErrorCodeUnsupportedConfiguration   = 100,   
/** A sensor required to run the session is not available. */    ARErrorCodeSensorUnavailable          = 101,   
/** A sensor failed to provide the required input. */    ARErrorCodeSensorFailed               = 102,   
/** World tracking has encountered a fatal error. */    ARErrorCodeWorldTrackingFailed        = 200,
};


1.5-ARFrame


  • ARFrame主要是追踪相机当前的状态,这个状态不仅仅只是位置,还有图像帧及时间等参数

@interface ARFrame : NSObject <NSCopying>
/**时间戳.*/
@property (nonatomic, readonly) NSTimeInterval timestamp;
/**缓冲区图像帧*/
@property (nonatomic, readonly) CVPixelBufferRef capturedImage;
/**相机(表示这个ARFrame是哪一个相机的,iPhone7plus有两个摄像机)*/
@property (nonatomic, copy, readonly) ARCamera *camera;
/**返回当前相机捕捉到的锚点数据(当一个3D虚拟模型加入到ARKit中时,锚点值得就是这个模型在AR中的位置)*/
@property (nonatomic, copy, readonly) NSArray<ARAnchor *> *anchors;
/**灯光,详情可见本章节ARLightEstimate类介绍(指的是灯光强度 一般是0-2000,系统默认1000)*/
@property (nonatomic, copy, nullable, readonly) ARLightEstimate *lightEstimate;
/**特征点(应该是捕捉平地或者人脸的,比较苹果有自带的人脸识别功能)*/
@property (nonatomic, nullable, readonly) ARPointCloud *rawFeaturePoints;
/**根据2D坐标点搜索3D模型,这个方法通常用于,当我们在手机屏幕点击某一个点的时候,可以捕捉到这一个点所在的3D模型的位置,至于为什么是一个数组非常好理解。手机屏幕一个是长方形,这是一个二维空间。而相机捕捉到的是一个由这个二维空间射出去的长方体,我们点击屏幕一个点可以理解为在这个长方体的边缘射出一条线,这一条线上可能会有多个3D物体模型point:2D坐标点(手机屏幕某一点)
ARHitTestResultType:捕捉类型  点还是面
(NSArray<ARHitTestResult *> *):追踪结果数组  详情见本章节ARHitTestResult类介绍*/
- (NSArray<ARHitTestResult *> *)hitTest:(CGPoint)point types:(ARHitTestResultType)types;
- (CGAffineTransform)displayTransformWithViewportSize:(CGSize)viewportSize orientation:(UIInterfaceOrientation)orientation;
@end


1.6-ARHitTestResult


  • ARHitTestResult:点击回调结果,这个类主要用于虚拟增强现实技术(AR技术)中现实世界与3D场景中虚拟物体的交互。 比如我们在相机中移动。拖拽3D虚拟物体,都可以通过这个类来获取ARKit所捕捉的结果

//捕捉类型枚举
typedef NS_OPTIONS(NSUInteger, ARHitTestResultType) {    
/** 点. */   
ARHitTestResultTypeFeaturePoint              = (1 << 0),    
/** 水平面 y为0. */   
ARHitTestResultTypeEstimatedHorizontalPlane  = (1 << 1),    
/** 已结存在的平面. */   
ARHitTestResultTypeExistingPlane             = (1 << 3),    
/** 已结存在的锚点和平面. */   
ARHitTestResultTypeExistingPlaneUsingExtent  = (1 << 4),} NS_SWIFT_NAME(ARHitTestResult.ResultType);
/**捕捉类型*/
@property (nonatomic, readonly) ARHitTestResultType type;
/**3D虚拟物体与相机的距离(单位:米)*/
@property (nonatomic, readonly) CGFloat distance;
/**本地坐标矩阵(世界坐标指的是相机为场景原点的坐标,而每一个3D物体自身有一个场景,本地坐标就是相对于这个场景的坐标)类似于frame和bounds的区别*/
@property (nonatomic, readonly) matrix_float4x4 localTransform;
/**世界坐标矩阵*/
@property (nonatomic, readonly) matrix_float4x4 worldTransform;
/**锚点(3D虚拟物体,在虚拟世界有一个位置,这个位置参数是SceneKit中的SCNVector3:三维矢量),而锚点anchor是这个物体在AR现实场景中的位置,是一个4x4的矩阵*/
@property (nonatomic, strong, nullable, readonly) ARAnchor *anchor;
@end


1.7-ARLightEstimate


  • ARLightEstimate是一个灯光效果,它可以让你的AR场景看起来更加的好

@interface ARLightEstimate : NSObject <NSCopying>
/**灯光强度  范围0-2000 默认1000*/
@property (nonatomic, readonly) CGFloat ambientIntensity;
@end


1.8-ARPlaneAnchor


  • ARPlaneAnchor是ARAnchor的子类,笔者称之为平地锚点。ARKit能够自动识别平地,并且会默认添加一个锚点到场景中,当然要想看到真实世界中的平地效果,需要我们自己使用SCNNode来渲染这个锚点

    • 锚点只是一个位置

/**平地类型,目前只有一个,就是水平面*/
@property (nonatomic, readonly) ARPlaneAnchorAlignment alignment;
/**3轴矢量结构体,表示平地的中心点  x/y/z*/
@property (nonatomic, readonly) vector_float3 center;
/**3轴矢量结构体,表示平地的大小(宽度和高度)  x/y/z*/
@property (nonatomic, readonly) vector_float3 extent;
@end


1.9-ARPointCloud


  • ARPointCloud:点状渲染云,主要用于渲染场景

@interface ARPointCloud : NSObject <NSCopying>
/**点的数量*/
@property (nonatomic, readonly) NSUInteger count;
/**每一个点的位置的集合(结构体带*表示的是结构体数组)*/
@property (nonatomic, readonly) const vector_float3 *points;
@end


1.10-ARSCNView


  • AR视图,在第一小节笔者介绍过,ARKit支持3D的AR场景和2D的AR场景,ARSCNView是3D的AR场景视图

    • 该类非常重要,且API较多,将在后续小节介绍

  • 该类是整个ARKit框架中唯一两个有代理的类其中之一


1.11-ARSession


  • AR会话,它的作用已经在前面小节中介绍,这里不再累述

    • 该类非常重要,且API较多,将在后续小节介绍

  • 该类是整个ARKit框架中唯一两个有代理的类其中之一


1.12-ARSessionConfiguration


  • ARSessionConfiguration会话追踪配置,主要就是追踪相机的配置

    • 注意:该类还有一个子类:ARWorldTrackingSessionConfiguration,它们在同一个API文件中

//会话追踪配置类@interface ARSessionConfiguration : NSObject <NSCopying>
/**当前设备是否支持,一般A9芯片以下设备不支持*/
@property(class, nonatomic, readonly) BOOL isSupported;
/**会话的对其方式,这里的对其指的是3D世界的坐标。枚举值见下方*/
@property (nonatomic, readwrite) ARWorldAlignment worldAlignment;
/**是否需要自适应灯光效果,默认是YES*/
@property (nonatomic, readwrite, getter=isLightEstimationEnabled) BOOL lightEstimationEnabled;
@end
//世界会话追踪配置,苹果建议我们使用这个类,这个子类只有一个属性,也就是可以帮助我们追踪相机捕捉到的平地
@interface ARWorldTrackingSessionConfiguration : ARSessionConfiguration
/**侦查类型。枚举值见下方(默认侦查平地)*/
@property (nonatomic, readwrite) ARPlaneDetection planeDetection;
@end

//追踪对其方式,这个决定了会话的参考坐标系(参照物)

typedef NS_ENUM(NSInteger, ARWorldAlignment) {

/* 相机位置 vector (0, -1, 0) /

ARWorldAlignmentGravity,

/** 相机位置及方向. vector (0, -1, 0)heading :(0, 0, -1) */ ARWorldAlignmentGravityAndHeading, /** 相机方向. */ ARWorldAlignmentCamera

} NS_SWIFT_NAME(ARSessionConfiguration.WorldAlignment);

/

侦查类型

*/

API_AVAILABLE(iOS(11.0)) API_UNAVAILABLE(macos, watchos, tvos)

typedef NS_OPTIONS(NSUInteger, ARPlaneDetection) {

/ 不侦查. */

ARPlaneDetectionNone = 0,

/** 平地侦查 */
ARPlaneDetectionHorizontal  = (1 << 0), 

} NS_SWIFT_NAME(ARWorldTrackingSessionConfiguration.PlaneDetection);


1.13-ARSKView


  • ARSKView也是AR视图,只不过他是2D的,由于2D比3D简单很多,并且ARSKView基本与ARSCNView类似,所以这里不做重复介绍。详细内容可参考ARSCNView



课程介绍 本套课程从技术理念到项目实践,教大家系统掌握ARKit技术开发,随心打造iOS端AR增强现实应用。由一开始的开发环境搭建,到Unity ARKit Plugin、ARFoundation ARKit等不同时期技术的讲解。从平面模型放置、识别图片、手势交互、3D物体识别、面部AR贴纸、光照估计、环境探针、多人AR技术,甚至包含ARKit3.0的动作捕捉技术等。除了以上课程内容,更加入了随着技术更新与时俱进更新的ARKit连载技术教学内容。课程收益 轻松理解ARKit的技术原理,从零到一创建自己的第一个AR项目。学习UnityARKit Plugin经典技术,了解ARKit中的常见概念和原理。学会在 ARFoundation 中使用ARKit,进行企业级AR项目开发。学会如何在AR项目里播放模型动画,通过触屏手势交互实现模型的旋转和缩放。 了解ARKit的图片识别,掌握AR卡片、AR书籍的实现方法。 学会使用面部增强技术,实现热门短视频应用的AR贴纸效果,实现面部表情追踪。学会使用ARKit物体检测技术,实现3D物体识别,可以广泛应用于工业、建筑、古董、玩具手办、艺展览等不同场景。学习ARKit中的经典交互案例,优化AR项目的用户体验。熟练使用环境纹理、光照估计技术,让AR内容随当前现实场景自动变化调节,看起来更加真实。基于WorldMap、CollaborativeSession AR技术,实现AR场景的持久化及多人AR体验效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值