「众所周知,视频可以 P」,今天我们来学习怎么给视频添加滤镜。
在 iOS 中,对视频进行图像处理一般有两种方式:GPUImage 和 AVFoundation 。
一、GPUImage
在之前的文章中,我们对 GPUImage 已经有了一定的了解。之前一般使用它对摄像头采集的图像数据进行处理,然而,它对本地视频的处理也一样方便。
直接看代码:
// movie
NSString *path = [[NSBundle mainBundle] pathForResource:@"sample" ofType:@"mp4"];
NSURL *url = [NSURL fileURLWithPath:path];
GPUImageMovie *movie = [[GPUImageMovie alloc] initWithURL:url];
// filter
GPUImageSmoothToonFilter *filter = [[GPUImageSmoothToonFilter alloc] init];
// view
GPUImageView *imageView = [[GPUImageView alloc] initWithFrame:CGRectMake(0, 80, self.view.frame.size.width, self.view.frame.size.width)];
[self.view addSubview:imageView];
// chain
[movie addTarget:filter];
[filter addTarget:imageView];
// processing
[movie startProcessing];
核心代码一共就几行。GPUImageMovie
负责视频文件的读取,GPUImageSmoothToonFilter
负责滤镜效果处理,GPUImageView
负责最终图像的展示。
通过滤镜链将三者串起来,然后调用 GPUImageMovie
的 startProcessing
方法开始处理。
虽然 GPUImage
在使用上简单,但是存在着 没有声音、在非主线程调用 UI、导出文件麻烦、无法进行播放控制 等诸多缺点。
小结:GPUImage
虽然使用很方便,但是存在诸多缺点,不满足生产环境需要。
二、AVFoundation
1、 AVPlayer 的使用
首先来复习一下 AVPlayer
最简单的使用方式:
NSURL *url = [[NSBundle mainBundle] URLForResource:@"sample" withExtension:@"mp4"];
AVURLAsset *asset = [AVURLAsset assetWithURL:url];
AVPlayerItem *playerItem = [[AVPlayerItem alloc] initWithAsset:asset];
AVPlayer *player = [[AVPlayer alloc] initWithPlayerItem:playerItem];
AVPlayerLayer *playerLayer = [AVPlayerLayer playerLayerWithPlayer:player];
第一步先构建 AVPlayerItem
,然后通过 AVPlayerItem
创建 AVPlayer
,最后通过 AVPlayer
创建 AVPlayerLayer
。
AVPlayerLayer
是 CALayer
的子类,可以把它添加到任意的 Layer
上。当 AVPlayer
调用 play
方法时, AVPlayerLayer
上就能将图像渲染出来。
AVPlayer
的使用方式十分简单。但是,按照上面的方式,最终只能在 AVPlayerLayer
上渲染出最原始的图像。如果我们希望在播放的同时,对原始图像进行处理,则需要修改 AVPlayer
的渲染过程。