IplImage详解
IplImage
这是OpenCV中提供的图像结构体。它的结构如下:
typedef struct _IplImage
{
int nSize; /* IplImage大小 */
int ID; /* 版本 (=0)*/
int nChannels; /* 大多数OPENCV函数支持1,2,3 或 4 个通道 */
int alphaChannel; /* 被OpenCV忽略 */
int depth; /* 像素的位深度: IPL_DEPTH_8U, IPL_DEPTH_8S, IPL_DEPTH_16U,
IPL_DEPTH_16S, IPL_DEPTH_32S, IPL_DEPTH_32F and IPL_DEPTH_64F 可支持 */
char colorModel[4]; /* 被OpenCV忽略 */
char channelSeq[4]; /* 同上 */
int dataOrder; /* 0 - 交叉存取颜色通道, 1 - 分开的颜色通道.cvCreateImage只能创建交叉存取图像 */
int origin; /* 0 - 顶—左结构,1 - 底—左结构 (Windows bitmaps 风格) */
int align; /* 图像行排列 (4 or 8). OpenCV 忽略它,使用 widthStep 代替 */
int width; /* 图像宽像素数 */
int height; /* 图像高像素数*/
struct _IplROI *roi; /* 图像感兴趣区域. 当该值非空只对该区域进行处理 */
struct _IplImage *maskROI; /* 在 OpenCV中必须置NULL */
void *imageId; /* 同上*/
struct _IplTileInfo *tileInfo; /*同上*/
int imageSize; /* 图像数据大小(在交叉存取格式下imageSize=image->height*image->widthStep),单位字节*/
char *imageData; /* 指向排列的图像数据 */
int widthStep; /* 排列的图像行大小,以字节为单位 */
int BorderMode[4]; /* 边际结束模式, 被OpenCV忽略 */
int BorderConst[4]; /* 同上 */
char *imageDataOrigin; /* 指针指向一个不同的图像数据结构(不是必须排列的),是为了纠正图像内存分配准备的 */
}
IplImage;
重要结构元素说明:
(1) depth和nChannels
depth代表颜色深度,使用的是以下定义的宏,nChannels是通道数,为1,2,3或4。depth的宏定义:
IPL_DEPTH_8U,无符号8bit整数(8u)
IPL_DEPTH_8S,有符号8bit整数(8s)
IPL_DEPTH_16S,有符号16bit整数(16s)
IPL_DEPTH_32S,有符号32bit整数(32s)
IPL_DEPTH_32F,32bit浮点数,单精度(32f)
IPL_DEPTH_64F,64bit浮点数,双精度(64f)
(2) origin和dataOrder
origin变量可以有两个取值:IPL_ORIGIN_TL或者IPL_ORIGIN_BL,分别代表图像坐标系原点在左上角或是左下角。
相应的,在计算机视觉领域,一个重要的错误来源就是原点位置的定义不统一。例如,图像的来源不同,操作系统不同,视频解码codec不同,存储方式不同等等,都可以造成原点位置的变化。例如,你可能认为你正在从图像上面的脸部附近取样,但实际上你却在图像下方的裙子附近取样。最初时,就应该检查一下你的系统中图像的原点位置,这可以通过在图像上方画个形状等方式实现。
dataOrder的取值可以是IPL_DATA_ORDER_PIXEL或者IPL_DATA_ORDER_PLANE,这个成员变量定义了多通道图像数据存储时颜色数据的排列方式,如果是IPL_DATA_ORDER_PIXEL,通道颜色数据排列将会是BGRBGR...的交错排列,如果是IPL_DATA_ORDER_PLANE,则每个通道的颜色值在一起,有几个通道,就有几个“颜色平面”。大多数情况下,通道颜色数据的排列是交错的。
(3) widthStep和imageData
widthStep与CvMat中的step类似,是以字节数计算的图像的宽度。
imageData则保存了指向图像数据区首地址的指针。使用这两个成员可以访问图像的像素点。
以下是对图像数据具体元素的操作:
// 假设有 8-bit 1-通道的图像 I (IplImage* img):
((uchar*)(img->imageData + img->widthStep*y))[x];//访问I(x,y)处的像素点
// 假设有 8-bit 3-通道的图像 I (IplImage* img):
((uchar*)(img->imageData + img->widthStep*y))[x*3];//I(x,y) blue
((uchar*)(img->imageData + img->widthStep*y))[x*3+1];//I(x,y) green
((uchar*)(img->imageData + img->widthStep*y))[x*3+2];//I(x,y) red
// 例如,给点 (100,100) 的亮度增加 30 ,那么可以这样做:
CvPoint pt = {100,100};
((uchar*)(img->imageData + img->widthStep*pt.y))[pt.x*3] += 30;
((uchar*)(img->imageData + img->widthStep*pt.y))[pt.x*3+1] += 30;
((uchar*)(img->imageData + img->widthStep*pt.y))[pt.x*3+2] += 30;
// 或者更高效地:
CvPoint pt = {100,100};
uchar* temp_ptr = &((uchar*)(img->imageData + img->widthStep*pt.y))[pt.x*3];
temp_ptr[0] += 30;
temp_ptr[1] += 30;
temp_ptr[2] += 30;
// 假设有 32-bit 浮点数, 1-通道 图像 I (IplImage* img):
((float*)(img->imageData + img->widthStep*y))[x];//I(x,y)
// 现在,一般的情况下,假设有 N-通道,类型为 T 的图像:
((T*)(img->imageData + img->widthStep*y))[x*N + c]; //I(x,y)
// 你可以使用宏 CV_IMAGE_ELEM( image_header, elemtype, y, x_Nc )
CV_IMAGE_ELEM( img, T, y, x*N + c );//I(x,y)c
// 也有针对各种图像(包括 4 通道图像)和矩阵的函数(cvGet2D, cvSet2D), 但是它们非常慢。
//实际应用中,也可以如下使用:
IplImage image;
uchar * imagedata;
imagedata=(uchar*)image->imageData;
imagedata[i*image->widthStep+j*image->nChannels+n]=****;//I(i,j)的第n个通道
以下是针对整个图像数据的操作
(1)iplImage = cvCreateImageHeader(cvSize(width,heigth),IPL_DEPTH_8U,1);
cvSetData(iplImage,pGrayBuffer,width*1); //第3个参数是行字节数
cvReleaseImageheader(&iplImage);
free(pGrayBuffer); //pGrayBuffer是程序里用来放灰度数据的空间,由calloc分配
(2)iplImage = cvCreateImage(cvSize(width,heigth),IPL_DEPTH_8U,1);
iplImage->imageData=pGrayBuffer;
iplImage->imageDataOrigin=pGrayBuffer;
cvReleaseImageheader(&iplImage);
free(pGrayBuffer);
(3) iplImage = cvCreateImage(cvSize(width,heigth),IPL_DEPTH_8U,1);
memcpy(iplImage->imageData,pGrayBuffer,iplImage->imageSize);
cvReleaseImage(&iplImage);
free(pGrayBuffer);
结论: 这3种方式都正确,但推荐用第(1)种。
如果imageData指向的空间是由cvCreateImage初始化的,那么用cvReleaseImage来释放;
如果imageData指向的空间是后来用户指定的,那么用vReleaseImageheader(&iplImage);释放,并由用户自行释放分配的空间。
其实(1)cvSetData所做的事情和(2)中两句指针赋值类似。
如果分配和释放没搭配好,比如自行分配空间搭配上cvReleaseImage(&iplImage);就会出现“OpenCV ERROR: Unknown error code -49 (Deallocation error)”这类错误。另外,补充一下,“利用cvCreateImage新建一个IplImage,之后一个个的对结构体的成员进行赋值”是非常多余的,cvCreateImage就已经根据参数中的宽度,高度,通道数,颜色深度等信息对结构体的各个成员初始化了,不需要再手动的去赋值。这里要提一下char *imageDataOrigin; 这个变量的说明是指针指向一个不同的图像数据结构(不是必须排列的),是为了纠正图像内存分配准备的,实际上初始化后的imageDataOrigin和imageData指向的是同一个地址。既然初始化成这样,我也没去改变它,没有产生什么影响。
注:opencv论坛上sunlighta大侠的解释是:“预留数据接口吧!上面有这么一句话:IplImage结构来自于 Intel Image Processing Library(是其本身所具有的)。OpenCV 只支持其中的一个子集。”
注:linux下的内存对齐默认是4字节,可以通过以下语句进行修改:
#progma pack(n)
(4) roi
roi(region of interest 感兴趣的区域),这个参数是IplROI结构体类型的变量。它允许对图像的某一小部分进行操作,而不是对整个图像进行运算。在OpenCV中,所有的对图像操作的函数都支持roi,如果你想打开roi,可以使用函数cvSetImageROI(),并给函数传递一个矩形子窗口。而cvResetImageROI()是用于关闭roi的。在程序中一旦使用了roi做完相应的运算,就一定要用cvResetImageROI()来关闭roi,否则,其他操作执行时还会使用roi的定义。
IplROI结构体包含了xOffset,yOffset,height,width,coi成员变量,其中xOffset,yOffset是x,y坐标,coi代表channel of interest(感兴趣的通道)。有时候,OpenCV图像函数不是作用于整个图像,而是作用于图像的某一个部分。这是,我们就可以使用roi成员变量了。如果IplImage变量中设置了roi,则OpenCV函数就会使用该roi变量。如果coi被设置成非零值,则对该图像的操作就只作用于被coi指定的通道上了。不幸的是,许多OpenCV函数忽略了coi的值。
void cvSetImageROI(IplImage* image,CvRect rect);
void cvResetImageROI(IplImage* image);
附录
(2)由IplImage引发的一场关于图像存贮结构的学习
作者 钰 http://blog.csdn.net/ofalling/article/details/8750414#