面经iOS 收藏篇iOS面试

iOS性能优化之CPU、GPU的优化(一)

2018-07-09  本文已影响13人  杨桃wd

面试的时候总会遇到以下问题:

1.你在项目中是怎么优化内存的?
2.优化你是从哪几方面着手?
3.列表卡顿的原因可能有哪些?你平时是怎么优化的?
4.遇到tableview卡顿吗?会造成卡顿的原因大致有哪些?

一、CPU和GPU

在屏幕成像的过程中,CPU和GPU起着至关重要的作用。

CPU(中央处理器)
对象的创建和销毁,对象属性的调整、布局计算、文本的计算和排版、图片格式转码和解码、图像的绘制(Core Graphics)
GPU(图形处理器)
纹理的渲染(OpenGL)

那CPU和GPU是怎么协作呢?
一个app的展示会包含很多内容,诸如,label,imageview,button等等。这些控件的位置,大小,颜色则都是由CPU来计算,计算完成后CPU会将这些数据提交给GPU来进行渲染,只有经过GPU的渲染才能显示在屏幕上。GPU做的操作则是:将收到的数据转成屏幕能显示的数据格式,所以要进行渲染的操作。渲染的操作是直接放在帧缓存(缓存区)。然后视频控制器从缓存区 读取的数据显示在屏幕上。就完成了一个显示的操作。

显示流程.png
在iOS中是双缓存机制,有前帧缓存、后帧缓存

二、屏幕成像原理

在屏幕显示过程中是有信号发送的。一帧一帧的。

发出垂直同步信号(VSync)时,即将显示一页的数据。水平同步信号(HSync)发出时,就一行一行的显示。 信号.png

三、卡顿的原因

屏幕内容是怎么显示到屏幕上的?
CPU(红色)——>GPU(蓝色)
1.CPU完成计算,提交给GPU渲染,这是来个垂直同步信号,则会将渲染的内容显示到屏幕上。
2.CPU计算时间正常,CPU渲染时间短,等待VSync
3.CPU计算时间正常或慢,GPU渲染时间长,这时来了VSync,而这一帧还没有渲染完,那么就会出现掉帧现象,屏幕回去显示上一帧的画面。这样就产生了卡顿。
4.而当下一帧VSync出现时,丢掉的那一帧画面才会出现。


掉帧.png
卡顿解决的主要思路:
尽可能减少CPU、GPU资源的消耗。
按照60FPS的刷帧率,每隔16ms就会有一次VSync信号。

四、卡顿优化-CPU

1.尽量用轻量级的对象,比如用不到事件处理的地方,可以考虑使用CAlayer取代UIView;能用基本数据类型,就别用NSNumber类型。
2.不要频繁地跳用UIVIew的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
3.尽量提前计算好布局,在有需要时一次性调整对应的布局,不要多次修改属性
4.Autolayout会比直接设置frame消耗更多的CPU资源
5.图片的size最好刚好跟UIImageView的size保持一致
6.控制一下线程的最大并发数量
7.尽量把耗时的操作放到子线程
8.文本处理(尺寸的计算,绘制)
9.图片处理(解码、绘制)

//图片解码的代码
- (void)image
{
    UIImageView *imageView = [[UIImageView alloc] init];
    imageView.frame = CGRectMake(100, 100, 100, 56);
    [self.view addSubview:imageView];
    self.imageView = imageView;

    dispatch_async(dispatch_get_global_queue(0, 0), ^{
        // 获取CGImage
        CGImageRef cgImage = [UIImage imageNamed:@"timg"].CGImage;

        // alphaInfo
        CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(cgImage) & kCGBitmapAlphaInfoMask;
        BOOL hasAlpha = NO;
        if (alphaInfo == kCGImageAlphaPremultipliedLast ||
            alphaInfo == kCGImageAlphaPremultipliedFirst ||
            alphaInfo == kCGImageAlphaLast ||
            alphaInfo == kCGImageAlphaFirst) {
            hasAlpha = YES;
        }

        // bitmapInfo
        CGBitmapInfo bitmapInfo = kCGBitmapByteOrder32Host;
        bitmapInfo |= hasAlpha ? kCGImageAlphaPremultipliedFirst : kCGImageAlphaNoneSkipFirst;

        // size
        size_t width = CGImageGetWidth(cgImage);
        size_t height = CGImageGetHeight(cgImage);

        // context
        CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8, 0, CGColorSpaceCreateDeviceRGB(), bitmapInfo);

        // draw
        CGContextDrawImage(context, CGRectMake(0, 0, width, height), cgImage);

        // get CGImage
        cgImage = CGBitmapContextCreateImage(context);

        // into UIImage
        UIImage *newImage = [UIImage imageWithCGImage:cgImage];

        // release
        CGContextRelease(context);
        CGImageRelease(cgImage);

        // back to the main thread
        dispatch_async(dispatch_get_main_queue(), ^{
            self.imageView.image = newImage;
        });
    });
}

五、卡顿优化-GPU

1.尽量减少视图数量和层次
2.GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理,所以纹理尽量不要超过这个尺寸
3.尽量避免段时间内大量图片的显示,尽可能将多张图片合成一张图片显示
4.减少透明的视图(alpha<1),不透明的就设置opaque为yes
5.尽量避免出现离屏渲染

在OpenGL中,GPU有2种渲染方式:

1.On-SCreen Rendering:当前屏幕渲染,在当前用语显示的屏幕缓冲区进行渲染操作。
2.Off-Screen Rendring: 离屏渲染,在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作。

离屏渲染消耗性能的原因:

1.需要创建新的缓冲区;
2离屏渲染的整个过程,需要多次切换上下文环境,先是从当前屏幕切换到离屏;等到离屏渲染结束以后,将离屏缓冲区的渲染结果显示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕

哪些操作会出发离屏渲染?

1.光栅化,layer.shouldRasterize = YES
2.遮罩,layer.mask
3.圆角,同时设置layer.maskToBounds = Yes,Layer.cornerRadis 大于0
考虑通过CoreGraphics绘制裁剪圆角,或者美工提供圆角图片
4.阴影,layer.shadowXXX
如果设置了layer.shadowPath就不会产生离屏渲染

六.卡顿检测

平时所说的“卡顿”主要是因为在主线程执行了耗时的操作。
可以添加Observer到主线程RunLoop中,通过监听RunLoop状态切换的耗时,以达到监听卡顿的目的
推荐一个库:LXDAppFluecyMonitor

上一篇下一篇

猜你喜欢

热点阅读