卡顿优化:
卡顿主要是在主线程执行了比较耗时的操作。
CPU:(Central Processing Unit,中央处理器)负责,对象的创建和销毁、对象属性的调整、布局计算、文本的计算和排版、图片的格式转换和解码、图像的绘制(Co re Graphics)。
GPU:(Graphics Processing Unit,图形处理器) 负责纹理的渲染。
卡顿产生的原因:
屏幕上每一帧数据的展示过程是:CPU先计算好数据,然后给到GPU渲染,渲染完成后的数据放到帧缓存里, 当接收到一个垂直同步信号(VSync)时,就需要马上把CPU就算好,GPU渲染好的数据显示到屏幕上。如果垂直同步信号(VSync)来的时候,CPU还没计算好或者GPU还没渲染好, 此时展示到屏幕上的数据就是上一帧的,当前的帧数据需要等下一个或者下下个垂直同步信号(VSync)开的时候才能展示到屏幕上;这种现象就是掉帧。
所以解决卡顿的主要思路就是:尽可能减少CPU、GPU资源消耗。
CPU优化:
1、尽可能用轻量级的对象,比如用不到事件处理的地方,尽可能使用CALayer取代UIView。
2、不要频繁的调用UIView的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改。
3、尽量提前计算好布局,在有需要时一次性调整对应的属性,不要多次修改属性。
4、Autolayout会比直接设置frame消耗更多的CPU资源。
5、图片的size最好跟UIImageView的size保持一致。
6、控制一下线程的最大并发树。
7、尽可能把耗时的操作放到子线程,如文本处理(尺寸计算、绘制),图片处理(解码、绘制)。
GPU优化:
1、尽可能避免短时间内大量图片的显示。
2、GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理。
3、尽量减少视图数量和层次。
4、减少透明的视图(alpha<1),不透明的就设置opaque为YES(默认就是YES)。
5、尽量避免出现离屏渲染。
离屏渲染:
在OpenGL中,GPU有两种渲染方式:
On-Screen Rendering:当前屏幕渲染,在当前用于显示的屏幕缓冲区进行渲染操作。
Off-Screen Rendering:离屏渲染,在当前屏幕缓冲区外新开辟一个缓冲区进行渲染操作。
离屏渲染消耗性能的原因:
1、需要创建新的缓冲区。
2、离屏渲染整个过程,需要多次切换上下文环境,先是从当前屏幕切换到离屏,等到离屏渲染结束后,将缓冲区的渲染结果展示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕。
造成离屏渲染的操作:
1、光栅化,layer.shouldRasterize = YES。
2、遮罩,layer.mask。
3、圆角,同时设置layer.maskToBounds = YES,layer.cornerRadius大于0。(可以通过CoreGraphics绘制裁剪圆角)。
4、阴影,layer.shadowOffset(可以通过设置layer.shadowPath,就不会产生离屏渲染)。
卡顿检测:
可以添加Observer 到主线程RunLoop中,通过监听RunLoop状态切换的耗时,以达到监听卡顿的目的。