camShift实现目标跟踪

过程:

    反向投影,meanShift算法,camShift算法。

简要概述:基于颜色分布的目标跟踪(需将RGB空间转到HSV空间,利用H分量计算)

    反向投影:利用直方图,求输入图中对应像素在目标图中的概率(出现次数频率),作为输出图对应像素的值。

    meanShift算法:均值漂移,知道收敛到设定值。

    camShift算法:调用meanShift,实现自适应大小的目标跟踪。


//对运动物体的跟踪:
//如果背景固定,可用帧差法 然后在计算下连通域 将面积小的去掉即可
//如果背景单一,即你要跟踪的物体颜色和背景色有较大区别 可用基于颜色的跟踪 如CAMSHIFT 鲁棒性都是较好的
//如果背景复杂,如背景中有和前景一样的颜色 就需要用到一些具有预测性的算法 如卡尔曼滤波等 可以和CAMSHIFT结合
#include "camShift.h"

IplImage *image = 0, *hsv = 0, *hue = 0, *mask = 0, *backproject = 0, *histimg = 0;
//用HSV中的Hue分量进行跟踪
CvHistogram *hist = 0;	//直方图类
int backproject_mode = 0;
int select_object = 0;	//是否用鼠标操作
int track_object = 0;
int show_hist = 1;
CvPoint origin;
CvRect selection;	//选择区域
CvRect track_window;	//追踪窗口,矩形框偏移,感兴趣区域
CvBox2D track_box;  // tracking 返回的方形区域 box,带角度
//typedef struct CvBox2D
//{
//	CvPoint2D32f center; /* 盒子的中心 */
//	CvSize2D32f size; /* 盒子的长和宽 */
//	float angle; /* 水平轴与第一个边的夹角,用弧度表示*/
//}实际上是椭圆的外接矩形,不同于CvRect结构,此矩形可以是倾斜的。画椭圆那个函数也用到这个结构。
CvConnectedComp track_comp;
//连接部件
// typedef struct CvConnectedComp {
//    double area; /* 连通域的面积 */
//    float value; /* 分割域的灰度缩放值 */
//    CvRect rect; /* 分割域的 ROI */
// } CvConnectedComp;
int hdims = 48;	//划分直方图bins的个数,越多越精确
float hranges_arr[] = {0,180};	//像素值的范围
float* hranges[] = {hranges_arr};	//用于初始化CvHistogram类
int vmin = 10, vmax = 256, smin = 30;	//用于设置滑动条

//鼠标回调函数,该函数用鼠标进行跟踪目标的选择
void on_mouse( int event, int x, int y, int flags,void* param ) //源程序丢失 void* param
{
    if( !image )
        return;

    if( image->origin )
        y = image->height - y;
    //如果图像原点坐标在左下,则将其改为左上
    if( select_object )
    //select_object为1,表示在用鼠标进行目标选择此时对矩形类selection用当前的鼠标位置进行设置
    {
		//注释:#define MIN(a,b)  ((a) > (b) ? (b) : (a))求ab中较小数
        selection.x = MIN(x,origin.x);  
        selection.y = MIN(y,origin.y);
		//注释:#define CV_IABS(a) (((a) ^ ((a) < 0 ? -1 : 0)) - ((a) < 0 ? -1 : 0))求绝对值
        selection.width = selection.x + CV_IABS(x - origin.x); 
        selection.height = selection.y + CV_IABS(y - origin.y);

        selection.x = MAX( selection.x, 0 );
        selection.y = MAX( selection.y, 0 );
        selection.width = MIN( selection.width, image->width );
        selection.height = MIN( selection.height, image->height );
        selection.width -= selection.x;
        selection.height -= selection.y;

    }

    switch( event )
    {
    case CV_EVENT_LBUTTONDOWN:   //鼠标按下,开始点击选择跟踪物体
        origin = cvPoint(x,y);
        selection = cvRect(x,y,0,0);
        select_object = 1;
        break;
    case CV_EVENT_LBUTTONUP:	//鼠标松开,完成选择跟踪物体
        select_object = 0;
        if( selection.width > 0 && selection.height > 0 )	//如果选择物体有效,则打开跟踪功能
            track_object = -1;
#ifdef _DEBUG
    printf("\n # 鼠标的选择区域:");
    printf("\n   X = %d, Y = %d, Width = %d, Height = %d",selection.x, selection.y, selection.width, selection.height);
#endif
        break;
    }
}


CvScalar hsv2rgb( float hue )
//颜色饱和度亮度,转换成,红绿蓝
{
    int rgb[3], p, sector;
    static const int sector_data[][3] = {{0,2,1}, {1,2,0}, {1,0,2}, {2,0,1}, {2,1,0}, {0,1,2}};
    hue *= 0.033333333333333333333333333333333f;
    sector = cvFloor(hue);
    p = cvRound(255*(hue - sector));
    p ^= sector & 1 ? 255 : 0;

    rgb[sector_data[sector][0]] = 255;
    rgb[sector_data[sector][1]] = 0;
    rgb[sector_data[sector][2]] = p;

#ifdef _DEBUG
    printf("\n # Convert HSV to RGB:");
    printf("\n   HUE = %f", hue);
    printf("\n   R = %d, G = %d, B = %d", rgb[0],rgb[1],rgb[2]);
#endif

    return cvScalar(rgb[2], rgb[1], rgb[0],0);
}

int camShift( int argc, char** argv )
{
    CvCapture* capture = 0;	//定义视频获取结构
    IplImage* frame = 0;

    if( argc == 1 || (argc == 2 && strlen(argv[1]) == 1 && isdigit(argv[1][0])))
        capture = cvCaptureFromCAM( argc == 2 ? argv[1][0] - '0' : 0 );	//摄像头
    else if( argc == 2 )
        capture = cvCaptureFromAVI( argv[1] );	//视频文件

    if( !capture )
    {
        fprintf(stderr,"Could not initialize capturing...\n");
        return -1;
    }

    printf( "Hot keys: \n"
        "\tESC - quit the program\n"
        "\tc - stop the tracking\n"
        "\tb - switch to/from backprojection view\n"
        "\th - show/hide object histogram\n"
        "To initialize tracking, select the object with mouse\n" );

    cvNamedWindow( "Histogram", 1 );	//用于显示直方图
    cvNamedWindow( "CamShiftDemo", 1 );	//用于显示视频

    cvSetMouseCallback( "CamShiftDemo", on_mouse, NULL );	//设置鼠标回调函数
    cvCreateTrackbar( "Vmin", "CamShiftDemo", &vmin, 256, 0 );	//设置滑动条,亮度最小值
    cvCreateTrackbar( "Vmax", "CamShiftDemo", &vmax, 256, 0 );	//设置滑动条,亮度最大值
    cvCreateTrackbar( "Smin", "CamShiftDemo", &smin, 256, 0 );	//设置滑动条,饱和度最小值

    for(;;)    //进入视频帧处理主循环
    {
        int i, bin_w, c;

        frame = cvQueryFrame( capture );	//获取一帧
        if( !frame )
            break;
		//printf("*****************%d\n",frame->origin);

        if( !image )  //image为0,表明刚开始还未对image操作过,先建立一些缓冲区
        {
            /* allocate all the buffers */
            image = cvCreateImage( cvGetSize(frame), 8, 3 );	//三通道彩色图像
            image->origin = frame->origin;
            hsv = cvCreateImage( cvGetSize(frame), 8, 3 );	//三通道彩色图像
            hue = cvCreateImage( cvGetSize(frame), 8, 1 );	//单通道灰度图形,单一分量灰度图
            mask = cvCreateImage( cvGetSize(frame), 8, 1 );	//单通道灰度图像,掩膜值
            backproject = cvCreateImage( cvGetSize(frame), 8, 1 );//分配反向投影图空间,大小一样,单通道
            
            hist = cvCreateHist( 1, &hdims, CV_HIST_ARRAY, hranges, 1 );//分配直方图空间
            histimg = cvCreateImage( cvSize(320,200), 8, 3 );//分配用于直方图显示的空间
            cvZero( histimg );//置背景为黑色
        }

        cvCopy( frame, image, 0 );	//复制帧图像
        cvCvtColor( image, hsv, CV_BGR2HSV );  // 彩色空间转换 BGR to HSV

        if( track_object )    //track_object非零,表示有需要跟踪的物体
        {
            int _vmin = vmin, _vmax = vmax;

            cvInRangeS( hsv, cvScalar(0,smin,MIN(_vmin,_vmax),0),cvScalar(180,256,MAX(_vmin,_vmax),0), mask );
            //CVAPI(void) cvInRangeS( const CvArr* src, CvScalar lower,CvScalar upper, CvArr* dst );
            //制作掩膜板!
			//只处理像素值为H:0~180,S:smin~256,V:vmin~vmax之间的部分
            //用于检查图像中像素的灰度是否属于某一指定范围。
			//cvInRange()检查src的每一个像素点是否落在lower和upper范围中。
            //如果src的值大于或者等于lower值,并且小于upper值,那么dst中对应的对应值将被设置为0xff;
			//否则,dst的值将被设置为0。

            cvSplit( hsv, hue, 0, 0, 0 );  // 分割多通道为单通道,这里只提取 HUE 分量
            //函数原型:void cvSplit(const CvArr* src, CvArr* dst0, CvArr* dst1, CvArr* dst2, CvArr* dst3)

            if( track_object < 0 )
            //如果需要跟踪的物体还没有进行属性提取,则进行选取框类的图像属性提取
            {
                float max_val = 0.f;
                cvSetImageROI( hue, selection );  // 得到选择区域 for mask
                cvSetImageROI( mask, selection ); //设置掩膜板选择框为ROI

                cvCalcHist( &hue, hist, 0, mask ); // 计算满足mask的直方图
                cvGetMinMaxHistValue( hist, 0, &max_val, 0, 0 );  // 只找最大值
                /* Finds indices and values of minimum and maximum histogram bins
                CVAPI(void)  cvGetMinMaxHistValue( const CvHistogram* hist,
                                   float* min_value, float* max_value,
                                   int* min_idx CV_DEFAULT(NULL),
                                   int* max_idx CV_DEFAULT(NULL));*/
                cvConvertScale( hist->bins, hist->bins, max_val ? 255. / max_val : 0., 0 );
                // 缩放 bin 到区间 [0,255]// 对直方图的数值转为0~255
                //Converts one array to another with optional linear transformation.
                //dst(I) = scalesrc(I) + (shift0; shift1; :::)
                /*CVAPI(void)  cvConvertScale( const CvArr* src, CvArr* dst,
                             double scale CV_DEFAULT(1),
                             double shift CV_DEFAULT(0) );*/
                cvResetImageROI( hue );  // remove ROI
                cvResetImageROI( mask );  //去除ROI
                
                track_window = selection;	//追踪区域
                track_object = 1;         //置track_object为1,表明属性提取完成

                cvZero( histimg );

                bin_w = histimg->width / hdims;  // hdims: 条的个数,则 bin_w 为条的宽度

                // 画直方图
                for( i = 0; i < hdims; i++ )
                //画直方图到图像空间
                {
                    int val = cvRound( cvGetReal1D(hist->bins,i)*histimg->height/255 );
                    //int cvRound (double value)//对一个double型的数进行四舍五入,并返回一个整型数!
                    CvScalar color = hsv2rgb(i*180.f/hdims);
                    cvRectangle( histimg, cvPoint(i*bin_w,histimg->height),
										cvPoint((i+1)*bin_w,histimg->height - val),color, -1, 8, 0 );	//矩形框
                }
            }

            /*
				函数 cvCalcBackProject 计算直方图的反向投影. 
				对于所有输入的单通道图像同一位置的象素数组,该函数根据相应的象素数组(RGB),
				放置其对应的直方块的值到输出图像中。
				用统计学术语,输出图像象素点的值是观测数组在某个分布(直方图)下的概率。
				例如,为了发现图像中的红色目标,可以这么做:
					1、对红色物体计算_色调直方图_,假设图像仅仅包含该物体。则直方图有可能有极值,对应着红颜色。
					2、对将要搜索目标的输入图像,使用直方图计算其色调平面的_反向投影_,然后对图像做_阈值_操作。
					3、在产生的图像中发现_连通部分_,然后使用某种附加准则选择正确的部分,比如最大的连通部分。
				这是 Camshift 彩色目标跟踪器中的一个逼进算法,
				除了第三步,CAMSHIFT 算法使用了上一次目标位置来定位反向投影中的目标。
			*/
			cvCalcBackProject( &hue, backproject, hist );//!!!!!!!!重要!!!!!!!!//
			//void cvCalcBackProject(IplImage** image, CvArr* backProject, const CvHistogram* hist)
            //计算hue的反向投影图,(或者叫概率图)
			
            cvAnd( backproject, mask, backproject, 0 );	//与运算
            //void cvAnd(const CvArr* src1, const CvArr* src2, CvArr* dst, const CvArr* mask=NULL)
            //得到掩膜内的反向投影

            // calling CAMSHIFT 算法模块,调用cvMeanShift算法,收敛到概率最大的区域。
            cvCamShift( backproject, 
						track_window,
                        cvTermCriteria( CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1 ),
                        &track_comp, 
						&track_box );//使用MeanShift算法对backproject中的内容进行搜索,返回跟踪结果

            track_window = track_comp.rect;//收敛后搜索窗口的位置,得到跟踪结果的矩形框

            if( backproject_mode )  //int backproject_mode = 0;
                cvCvtColor( backproject, image, CV_GRAY2BGR ); // 使用backproject灰度图像
            if( image->origin )  //image->origin = frame->origin;
                track_box.angle = -track_box.angle;
            cvEllipseBox( image, track_box, CV_RGB(255,0,0), 3, CV_AA, 0 );
            //void cvEllipseBox(CvArr* img, CvBox2D box, CvScalar color, int thickness=1, int lineType=8, int shift=0 )
            //画椭圆,画出跟踪结果的位置
        }

        if( select_object && selection.width > 0 && selection.height > 0 )
        //如果正处于物体选择,画出选择框
        {
            cvSetImageROI( image, selection );
            cvXorS( image, cvScalarAll(255), image, 0 );	//按位异或运算
            //void cvXorS(const CvArr* src, CvScalar value, CvArr* dst, const CvArr* mask=NULL)
            //src或value=dst
            cvResetImageROI( image );
        }

        cvShowImage( "CamShiftDemo", image );
        cvShowImage( "Histogram", histimg );

        c = cvWaitKey(10);
        if( c == 27 )
            break;  // exit from for-loop
        switch( c )
        {
        case 'b':
            backproject_mode ^= 1;//^异或操作,0^0=0,0^1=1,1^0=1,1^1=0
            break;
        case 'c':
            track_object = 0;
            cvZero( histimg );//直方图清除后,track_object = 0;方便重新取属性
            break;
        case 'h':
            show_hist ^= 1;
            if( !show_hist )
                cvDestroyWindow( "Histogram" );
            else
                cvNamedWindow( "Histogram", 1 );
            break;
        default:
            ;
        }
    }

	cvReleaseImage(&image);

    cvReleaseCapture( &capture );
    cvDestroyWindow("CamShiftDemo");

    return 0;
}


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Camshift算法是一种基于颜色直方图的目标跟踪算法,它可以用于在视频流中实时跟踪并定位一个物体的位置和大小。下面是一个简单的人脸跟踪的Camshift算法实现步骤: 1. 初始化:首先需要选择一个感兴趣区域(ROI),在这个区域内计算出颜色直方图,作为跟踪的模板。 2. 颜色直方图反向投影:将当前帧图像转化为HSV颜色空间,计算出当前图像中每个像素在模板颜色直方图中的概率值,得到一个反向投影图像。 3. Camshift迭代:使用反向投影图像来更新ROI的位置和大小,这个过程可以使用Camshift算法来实现。 4. 结果输出:将跟踪到的人脸位置和大小输出到显示屏上。 下面是一个简单的Python实现示例: ```python import cv2 # 初始化视频捕获对象 cap = cv2.VideoCapture(0) # 选择感兴趣区域 ret, frame = cap.read() r, h, c, w = 250, 80, 400, 80 track_window = (c, r, w, h) roi = frame[r:r+h, c:c+w] hsv_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2HSV) mask = cv2.inRange(hsv_roi, np.array((0., 60., 32.)), np.array((180., 255., 255.))) roi_hist = cv2.calcHist([hsv_roi],[0],mask,[180],[0,180]) cv2.normalize(roi_hist, roi_hist, 0, 255, cv2.NORM_MINMAX) # 设置终止条件,最多迭代10次或者移动距离小于1个像素 term_crit = ( cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1 ) while True: # 读取当前帧 ret, frame = cap.read() if ret == True: # 将当前帧转化为HSV颜色空间 hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) # 计算反向投影图像 dst = cv2.calcBackProject([hsv],[0],roi_hist,[0,180],1) # 使用Camshift算法迭代更新ROI的位置和大小 ret, track_window = cv2.CamShift(dst, track_window, term_crit) # 绘制跟踪结果 pts = cv2.boxPoints(ret) pts = np.int0(pts) img2 = cv2.polylines(frame,[pts],True, 255,2) # 显示跟踪结果 cv2.imshow('img2',img2) # 按下ESC键退出 k = cv2.waitKey(60) & 0xff if k == 27: break else: break # 释放视频捕获对象和窗口 cap.release() cv2.destroyAllWindows() ``` 这个示例代码实现了在摄像头视频流中实时跟踪人脸,并输出跟踪结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值