ios基础

基于ARKit的开发

2018-01-08  本文已影响511人  己庚辛壬癸

ARKit是苹果在WWDC2017推出的一个用于实现增强现实(AR)的框架;开发者能够使用它来快速的完成基本的AR功能开发。

软硬件支持范围

必须同时具备上述条件。

需要其他什么

ARKit的类结构图

查看大图

ARKit类结构图

ARKit如何工作

假设,我们需要实现的AR功能是:通过app在现实世界的桌子上放置一个杯子。我们需要通过怎么的步骤来实现这个功能呢?或者说ARKit是怎么实现这样的功能的呢?

AR放置的杯子

总结来说有三个重要的部分:

Tracking

Tracking是ARKit的核心功能,它负责实时追踪设备。

特性:

ARCamera中有两个属性trackingStatetrackingStateReason,开发者可以根据这两个属性的值,对用户进行相应的提示。

Scene Understanding

Scene Understanding就是理解设备周围环境的特征;例如平面检测,平面检测就是检测并分析出设备周围环境中的平面。

特性:

Rendering

渲染。

特性:

ARKit的使用

ARKit是基于会话(ARSession)的一套API,ARSession处理包含Tracking、Scene Understanding以及渲染时需要的数据在内的许多复杂的进程。

ARSession和ARConfiguration

ARSession内部使用了AVCaptureSession和CMMotionManager来获取图像信息和设备运动信息;根据ARConfiguration指定的Tracking类型来合成数据,最终输出ARFrame。每个ARFame包含了渲染需要的所有信息,可以把它理解成对应时间的快照。想要获得ARFrame有两种方式:

ARConfiguration决定了Tracking类型;基类ARConfiguration有三个维度的追踪,也即是设备的方向;子类ARWorldTrackingConfiguration拥有6个维度的追踪,它即包含了设备的方向,也包含了设备在现实世界中的相对位置。

可以使用ARConfiguration的类属性isSupported来判断,当前设备是否支持该模式的追踪。@property(class, nonatomic, readonly) BOOL isSupported;

基本使用流程

想要使用ARKit,首要的步骤就是创建ARSession;其次,选用相应的ARConfiguration来决定Tracking的类型;然后使会话运行;之后的操作就是放置虚拟模型并渲染显示。总结如下:

上文中说到SceneKitSpriteKit,在ARKit中,有两个类:ARSCNViewARSKView是分别继承自上述框架中的SCNViewSKView;ARKit结合这两个框架为开发者提供了更加简单的使用过程,可以将ARSCNView(3D)、ARSKView(2D)理解成两种渲染引擎(一个负责3D、一个负责2D),只要开发者选用其中的一种,那么将追踪得到的帧数据就会自动渲染并显示到相应的View上;对于特殊需求,也可以使用Metal来完成自定义的渲染。本文中都是使用ARSCNView来显示场景的。

ARkit以及SceneKit的类关系图(图片摘取于:u013263917博客)

ARkit以及SCeneKit的类关系图

使用ARSCNView时启动Tracking的代码如下:

- (void)viewDidLoad {
    [super viewDidLoad];
    
    // 设置view
    self.sceneView.delegate = self;
    self.sceneView.automaticallyUpdatesLighting = NO;
}

- (void)viewDidAppear:(BOOL)animated {
    [super viewDidAppear:animated];
    
    if (ARWorldTrackingConfiguration.isSupported) {
        // 防止熄屏
        [UIApplication sharedApplication].idleTimerDisabled = YES;
        
        // 创建一个能够检测水平面的configuration
        ARWorldTrackingConfiguration *configuration = [ARWorldTrackingConfiguration new];
        configuration.planeDetection = ARPlaneDetectionHorizontal;
    
        // 运行
        [self.sceneView.session runWithConfiguration:configuration options:ARSessionRunOptionResetTracking|ARSessionRunOptionRemoveExistingAnchors];
    }
}

- (void)viewWillDisappear:(BOOL)animated {
    [super viewWillDisappear:animated];
    
    // 暂停session
    [self.sceneView.session pause];
}

在完成上述的代码之后,就能够在ARSCNView上看到摄像机捕捉的景象。接下来就是找到合适的位置来放置虚拟的模型,如找一个平面,或者一个点。

对于平面,可以使用ARWorldTrackingConfiguration的属性planeDetection来设置(目前只支持水平面),在检测到平面之后,ARKit会自动向Session中添加一个ARAnchorARAnchor代表现实世界中的一个位置,每一个添加到Session中的ARAnchor都会有一个与之对应的节点(SCNNode),于是我们就可以在这个节点上添加模型(子节点)。

如果想要将模型添加到指定的空间点,ARKit为ARFrame提供了Hit-testing。方法声明为:

- (NSArray<ARHitTestResult *> *)hitTest:(CGPoint)point types:(ARHitTestResultType)types;

Hit-testing就是从手机模拟发射一条射线去,寻找与现实世界的交点。

Hit-testing

其中point参数,为当前追踪的图片的相对位置,左上角是(0,0)右下角是(1,1);这个参数可以使用手势来输入。ARHitTestResultType是一个枚举,决定用什么样的方式去Hit-testing

typedef NS_OPTIONS(NSUInteger, ARHitTestResultType) {
    /** 返回射线上与特征点最接近的点 */
    ARHitTestResultTypeFeaturePoint              = (1 << 0),
    
    /** 从当前帧中确定一个平面,然后返回与平面的交点 */
    ARHitTestResultTypeEstimatedHorizontalPlane  = (1 << 1),
    
    /** 将当前已经检测到的平面看作无限大的平面,然后返回与这些平面的交点 */
    ARHitTestResultTypeExistingPlane             = (1 << 3),
    
    /** 仅仅返回当前平面范围内的交点 */
    ARHitTestResultTypeExistingPlaneUsingExtent  = (1 << 4),
} NS_SWIFT_NAME(ARHitTestResult.ResultType);

代码中结合手势使用Hit-testing

- (IBAction)tapAction:(UITapGestureRecognizer *)sender {
    
    // 获取当前帧
    ARFrame *frame = self.sceneView.session.currentFrame;
    if (frame) {
        // 根据手势设置点的位置
        CGPoint location = [sender locationInView:self.sceneView];
        CGSize size = self.sceneView.bounds.size;
        CGFloat x,y;
        
        x = location.x/size.width;
        y = location.y/size.height;
        
        // hit-testing
        NSArray<ARHitTestResult *> * results = [frame hitTest:CGPointMake(x, y) types:ARHitTestResultTypeEstimatedHorizontalPlane];
        if (results.count > 0) {
            // 将得到的第一个点添加到session
            ARHitTestResult *res = [results firstObject];
            ARAnchor *anchor = [[ARAnchor alloc] initWithTransform:res.worldTransform];
            [self.sceneView.session addAnchor:anchor];
        }
    }
}

添加hit-testing的Anchor后,可以在对应的委托方法中,添加相应的虚拟物体的模型

- (void)renderer:(id<SCNSceneRenderer>)renderer didAddNode:(SCNNode *)node forAnchor:(ARAnchor *)anchor {
        // 加载模型
        SCNScene *candle = [SCNScene sceneNamed:@"candle.scn" inDirectory:@"Models.scnassets/candle" options:nil];
        SCNNode *candleNode = [[candle.rootNode childNodes] firstObject];
        
        // 添加到对应的节点上
        [node addChildNode:candleNode];
}

效果图如下:

蜡烛

至此已经完成了一个基本的AR应用,如果需要完成更加复杂的应用,还需要掌握很多关于SceneKit的知识(如模型的动画、坐标系的转换等)以及加入更复杂的逻辑和算法。

如何向一个工程中引入ARKit

step1.png step2.png

模型的导入

import1.png import2.png import3.png

转换后的结果:


import4.png
    // 加载场景
    SCNScene *scene = [SCNScene sceneNamed:@"chameleon.scn" inDirectory:@"Models.scnassets" options:nil];
    
    // 获取子节点
    NSArray *childNodes = [scene.rootNode childNodes];

参考资料以及Demo地址

上一篇 下一篇

猜你喜欢

热点阅读