iOS中的CoreImage

1.coreImage的介绍

         coreImage是IOS5中新加入的一个Objective-c的框架,提供了强大高效的图像处理功能,用来对基于像素的图像进行操作与分析。IOS提供了很多强大的滤镜(Filter),其中IOS5中有48种,而到了最新的IOS6 Filter已经增加到了93种之多,并且这一数字会继续增加。这些Filter提供了各种各样的效果,并且还可以通过滤镜链将各种效果的Filter叠加起来,形成强大的自定义效果,如果你对该效果很满意,还可以子类化滤镜。

        

2.coreImage框架中的对象

 

2.1 CIImage

         CIImage是CoreImage框架中最基本代表图像的对象,他不仅包含元图像数据,还包含作用在原图像上的滤镜链。这里我想特别强调的是CIImage和其他图像是不同的,在CIImage被CIContext渲染出来之前,他是依赖于滤镜链的,滤镜是不会更改CIImage中的图像数据。这个需要正确理解,不然会给你的程序造成错误。说到了CIImage的不同,就必须得提一下如何创建CIImage了,CIImage是不能直接有UIImage转化而来的,有以下几种创建CIImage的类方法:

1.CIImage*image=[CIImage imageWithContentsOfURL:myURL];
2.CIImage*image=[CIImage imageWithData:myData];
3.CIImage*image=[CIImage imageWithCGImage:myCgimage];
4.CIImage*image=[CIImage imageWithCVPixelBuffer:CVBuffer];

2.2 CIFilter

         CIFilter用来表示CoreImage提供的各种滤镜。滤镜使用键-值来设置输入值,一旦这些值设置好,CIFilter就可以用来生成新的CIImage输出图像了。记住,这里的输出的图像不会进行实际的图像渲染,他只包含一个对输入图像的引用以及需要应用与数据上的滤镜链。IOS永远在最佳的时间选择渲染图像。

         CIFilter提供了一个简单的方法查询可用的滤镜种类:[CIFilterfilterNamesInCategory:kCICategoryBuiltIn];//搜索属于 kCICategoryBuiltIn类别的所有滤镜名字,返回一个数组;

[CIFilterfilterNamesInCategories];//搜索所有可用的滤镜名称;

调用[CIFilter attributes]会返回filter详细信息,下面我们以一个具体列子来看看他返回的信息。

      下面是我程序返回的一个叫做CISepiaTone滤镜返回的详细信息:

2012-09-18 16:17:09.155 SZFYKJHomeWorkVersion1[2836:f803] {
    CIAttributeFilterCategories =     (//滤镜所示种类,通常一个滤镜可以属于几种
        CICategoryColorEffect,		 //总类,这只是根据滤镜效果,作用来分类的
        CICategoryVideo,			 //可以用种类名来搜索Fileter;
        CICategoryInterlaced,
        CICategoryNonSquarePixels,
        CICategoryStillImage,
        CICategoryBuiltIn
    );
    CIAttributeFilterDisplayName = "Sepia Tone";
    CIAttributeFilterName = CISepiaTone;		//滤镜的名称,通过该名称来
   									//调用滤镜,具体见下面实例

 inputImage =     {					//滤镜使用需要输入的参数,该
        CIAttributeClass = CIImage;		//参数类型为CIImage。
        CIAttributeType = CIAttributeTypeImage;
    };
    inputIntensity =     {				//输入强度,参数的名称
        CIAttributeClass = NSNumber;		//类型
        CIAttributeDefault = 1;			//默认值
        CIAttributeIdentity = 0;			
        CIAttributeMax = 1;				//最大值
        CIAttributeMin = 0;				//最小值
        CIAttributeSliderMax = 1;
        CIAttributeSliderMin = 0;
        CIAttributeType = CIAttributeTypeScalar;
    };
}
程序中使用CISepiaTone的代码为:CIFilter *filter = [CIFilter filterWithName:@"CISepiaTone"]; 
[filter setValue:inputImage forKey:@"inputImage"];
[filter setValue:[NSNumber numberWithFloat:0.8] forKey:@"inputIntensity"];

大家可以 [CIFilterfilterNamesInCategories]返回所有的滤镜,并查看他们的参数来熟悉各个滤镜的使用方法。

 

2.3 CIContext

      CIContext用来渲染CIImage,将作用在CIImage上的滤镜链应用到原始的图片数据中。CIContext可以是基于CPU的,也可以是基于GPU的,这两种渲染的区别是:使用CPU渲染的IOS会采用GCD来对图像进行渲染,这保证了CPU渲染在大部分情况下更可靠,比CPU渲染更容易使用,他可以在后台实现渲染过程;而GPU渲染方式使用OpenGL ES2.0来渲染图像,这种方式CPU完全没有负担,应用程序的运行循环不会受到图像渲染的影响,而且他渲染比CPU渲染更快但是GPU渲染无法在后台运行。

      对于如何选择更好的渲染方式,我认为应该视具体情况而定:对于复杂的图像滤镜使用 GPU 更好,但是如果在处理视频并保存文件,或保存照片到照片库中时为避免程序退出对图片保存造成影响,这时应该使用 CPU 进行渲染。默认情况是用 CPU 渲染的。
CIContext *context = [CIContext contextWithOptions:[NSDictionary dictionaryWithObject:[NSNumber numberWithBool:YES] forKey:kCIContextUseSoftwareRenderer]];//CPU渲染

渲染后的图片使用:

1.imageView中使用:

// Create the CIContext to render into
  CIContext *context = [CIContext context];

// Get outputImage from the last filter in chain
  CIImage *ciimage = [filter outputImage];

// Render the CIImage into a CGImageRef
  CGImageRef cgimg = [context createCGImage:ciimage fromRect:[ciimage extent]];

// Create a UIImage from the CGImageRef
UIImage *uiimage = [UIImage imageWithCGImage:cgimg scale:1.0f
orientation:ui_orientation([ciimage properties])];
CGImageRelease(cgimg);
// Use the UIImage in an UIImageView
imageView.image = uiimage;

2.将图片保存到photoLibrary

// Create a CGImage from the CIImage
 CIImage *outputImage = [filter outputImage];
 CGImageRef cgimage = [cpu_context createCGImage:outputImage
                             fromRect:[outputImage extent]];
 // Add the CGImage to the photo library
 ALAssetsLibrary *library = [ALAssetsLibrary new];
 [library writeImageToSavedPhotosAlbum:cgimage
                              metadata:[outputImage properties]
      completionBlock:^(NSURL *assetURL NSError *error) {
		CGImageRelease(cgimg);
}];


2.4 CIDetector和CIFeature

         CIDetector用来分析CIImage,得到CIFeature。每个CIDetector都要用一个探测器来初始化,这个类型高数探测器要在图像中寻找什么特征。

         当一个CIDetector分析一张图片时,返回一个探测到的CIFeature的数组,如果CIDetector 被初始化为寻找面孔,那么返回的数组会被填上CIFaceFeature对象,每个CIFaceFeature都包含一个面部的CGrect引用(按照图像的坐标系),以及检测到的面孔的左眼,右眼,嘴部位置的CGPoint;

CIDetector *faceDetector = [CIDetector 
                                    detectorOfType:CIDetectorTypeFace
                                    context:self.imageContext 
                                    options:options];              
NSArray *faces = [faceDetector featuresInImage:coreImage
                                               options:nil];
for(CIFaceFeature *face in faces){
            coreImage = [CIFilter filterWithName:@"CISourceOverCompositing"
                                   keysAndValues:kCIInputImageKey, [self makeBoxForFace:face],
                         kCIInputBackgroundImageKey, coreImage, nil].outputImage;
        }

3 注意事项

 

1 CoreImage在IOS上有很高的效率,但是滤镜和渲染操作也会对主线程造成影响。应该将CoreImage滤镜渲染操作放在后台线程执行,当这些操作介绍后在返回主线程进行界面的更新。

dispatch_async(
       dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_BACKGROUND, 0),
       ^(void){
           
           //CGImageRef cgImage = [self autoAdjustImage];
           NSArray *filters;
           // Create Core Image
           CGImageRef cgImg = self.imageView.image.CGImage;
           CIImage *coreImage = [CIImage imageWithCGImage:cgImg];
           
           // Iterate through all of our filters and apply
           // them to the CIImage
           for(CIFilter *filter in filters){
               [filter setValue:coreImage forKey:kCIInputImageKey];
               coreImage = filter.outputImage;
           }
           
           // Create a new CGImageRef by rendering through CIContext
           // This won't slow down main thread since we're in a background
           // dispatch queue
           CGImageRef newImg = [self.imageContext createCGImage:coreImage 
                                                       fromRect:[coreImage extent]];
           
           dispatch_async(dispatch_get_main_queue(), ^(void){
               // Update our image view on the main thread
               // You can also perform any other UI updates needed
               // here such as hidding activity spinners
               self.imageView.image = [UIImage imageWithCGImage:newImg];
               [self.adjustSpinner stopAnimating];
               [sender setEnabled:YES];
           });
       });

上面这段代码,就是为了防止阻塞主线程,用GCD异步执行滤镜与渲染操作,在获取渲染后的照片以后,返回主线程进行界面的更新。(完整的程序见本文末连接)

 

2 不要重复应用滤镜,即使是同一个滤镜也不要应用两次,因为滤镜后输出照片包含滤镜链,在进行照片渲染是会将滤镜链效果叠加到原始数据上,这时会造成问题。比如,有一个CIImage,上面配置了强度为0.5的棕色滤镜,现在通过滑块将强度改为0.6,这个滤镜应该用在新的CIImage上,如果不是新的CIImage上,那么原来的CIImage中将包含强度为0.5和0.6的棕色滤镜,而我们只想0.6的棕色滤镜,这样就造成错误,这一点在编写程序的时候一定要切忌。

 

3 app中应用的滤镜太多,改变速率太快,如果是根据滑块来产生事件的话,一定要注意在使用滑条值前要首先判断更改的滤镜当前是否正在起作用,如果该滤镜正在生成新的渲染图片,则应该这次滑块的更新。这一点也是很重要的,弄的不好常常导致程序崩溃,出现内存泄露问题。

 

这些问题常常会导致程序的崩溃.

 

4 总结

CoreImage处理图像的流程:

1:创建一个新的CIImage;

2:创建一个行的CIFIlter,并通过键-值设置各种输入值,这些值有些是有默认值的,有些没有默认值,需要编程者的设置;

3:冲CIFilter中生成输出图像,如果存在滤镜链则将输出图像作为输入参数传入到下一个滤镜,跳回步骤2继续进行,如果到达滤镜末,则调用CIContext渲染CIImage对象。这个context可以是基于CPU或GPU的,基于CPU的产出CGImageRef对象,基于GPU的调用OpenGL ES在屏幕上画出结果,默认是基于CPU的。

 

在使用CoreImage时,一定要记住CIImage对象在开始时不会操作图像数据,知道使用CIContext渲染图片是才会这么做。还要记住最好在后台执行图像处理的操作,然后在主线程中修改界面。


大家有机会可以参考一下IOS5核心框架中的CoreImage章节和AVFoundation章节,下面在贴一个书本中的列子的连接,我认为很有助理解。http://ioscoreframeworks.com/download/

另外也可以参考下wwdc上面的视频Session510-Getting Started with Core Image和Session 511 -  Core Image Techniques.mov。




已标记关键词 清除标记
相关推荐
©️2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页