opencv3.0Beta+VS2012的视频保存为图片,如果opencv版本不同引入的库也会不一样,大家注意!!! #include "opencv2/opencv.hpp" #include <iostream> #include <ctype h=""> #include "opencv2/opencv.hpp" #include "opencv2/video/tracking.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp" #include <opencv2 imgproc="" types_c="" h=""> #include "opencv2/highgui/highgui_c.h" using namespace cv; using namespace std; Mat image; bool backprojMode = true; //表示是否要进入反向投影模式,true表示准备进入反向投影模式 bool selectObject = false; //代表是否在选要跟踪的初始目标,true表示正在用鼠标选择 int trackObject = 0; //代表跟踪目标数目 bool showHist = true; //是否显示直方图 Point origin; //用于保存鼠标选择第一次单击时点的位置 Rect selection; //用于保存鼠标选择的矩形框 int vmin = 10, vmax = 256, smin = 30;//图像掩膜(0-1矩阵)需要的边界常数 //鼠标回调函数,该函数用鼠标进行跟踪目标的选择,鼠标事件响应函数,这个函数从按下左键时开始响应直到左键释放 static void onMouse(int event, int x, int y, int, void*) { if (selectObject))//只有当鼠标左键按下去时才有效,然后通过if里面代码就可以确定所选择的矩形区域selection { //最小成矩形,选择区域的x坐标选起点与当前点的最小值,保证鼠标不管向右下角还是左上角拉动都正确选择 selection.x = MIN(x, origin.x);//矩形左上角顶点坐标, [怎么不是左下角坐标?不懂!] selection.y = MIN(y, origin.y); selection.width = std::abs(x - origin.x); //两个横坐标相减得到长 selection.height = std::abs(y - origin.y);//两个纵坐标相减得到宽 selection &= Rect(0, 0, image.cols, image.rows);//用于确保所选的矩形区域在图片范围内 } switch (event) { case CV_EVENT_LBUTTONDOWN:[鼠标左键按下,初始化一个矩形框] // CV_EVENT_LBUTTONDOWN =1 LBUTTONDOWN:left button down鼠标左按钮按下事件。按下鼠标时捕获点origin origin = Point(x, y); selection = Rect(x, y, 0, 0);//鼠标刚按下去时初始化了一个矩形区域 selectObject = true; //这时switch前面的if语句条件为true,执行该语句 break; case CV_EVENT_LBUTTONUP: //CV_EVENT_LBUTTONUP =4 松开鼠标时,捕获width和height selectObject = false; //代表是否在选要跟踪的初始目标,true表示正在用鼠标选择 if (selection.width > 0 && selection.height > 0) trackObject = -1; //还没有跟踪,重新计算直方图 break; } } static void help() //打印控制按键说明 { cout << "\nThis is a demo that shows mean-shift based tracking\n" "You select a color objects such as your face and it tracks it.\n" "This reads from video camera (0 by default, or the camera number the user enters\n" "Usage: \n" " ./camshiftdemo [camera number]\n"; cout << "\n\nHot keys: \n" "\tESC - quit the program\n" "\tc - stop the tracking\n" "\tb - switch to/from backprojection view\n" "\th - show/hide object histogram\n" "\tp - pause video\n" "To initialize tracking, select the object with mouse\n"; } const char* keys = { "{1| | 0 | camera number}" };//指针指向字符串[有什么用??] int main(int argc, const char** argv) { help(); VideoCapture cap; //定义一个摄像头捕捉的类对象 Rect trackWindow; //要跟踪的窗口 int hsize = 16; //创建直方图时要用的常量[为什么要用常量] float hranges[] = { 0, 180 }; //hranges在后面的计算直方图函数中要用到 const float* phranges = hranges; // CommandLineParser parser(argc, argv, keys); //命令解析器函数 // int camNum = parser.get<int>("1");//现在camNum = 0 Mat imgbackprojtemp; cap.open("e:\\data\\1.mp4"); //cap.open(camNum);摄像头画面捕捉不成功则退出程序 if (!cap.isOpened()) { // help(); // cout << "***Could not initialize capturing...***\n"; // cout << "Current parameter's value: \n"; // parser.printParams();;//打印出cmd参数信息 return -1; } //关于显示窗口的一些设置 namedWindow("Histogram", 0); namedWindow("CamShift Demo", 0); //设置鼠标事件,把鼠标响应与onMouse函数关联起来 setMouseCallback("CamShift Demo", onMouse, 0);//消息响应机制 //创建三个滑块条,特定条件用滑块条选择不同参数能获得较好的跟踪效果。createTrackbar函数的功能是在对应的窗口创建滑动条,滑动条Vmin,vmin表示滑动条的值,最大为256。最后一个参数为0代表没有调用滑动拖动的响应函数。vmin,vmax,smin初始值分别为10,256,30 createTrackbar("Vmin", "CamShift Demo", &vmin, 256, 0); createTrackbar("Vmax", "CamShift Demo", &vmax, 256, 0); createTrackbar("Smin", "CamShift Demo", &smin, 256, 0); //创建Mat变量,frame, hsv, hue, mask, hist, histimg, backproj;其中histimg初始化为200*300的零矩阵 Mat frame, hsv, hue, mask, hist, histimg = Mat::zeros(200, 320, CV_8UC3), backproj; bool paused = false; //主循环 for (;;) { if (!paused) //没有暂停 { cap >> frame; //从摄像头抓取一帧图像并输出到frame中 if (frame.empty())//为空,跳出主循环 break; } frame.copyTo(image);//frame存入image if (!paused)//没有按暂停键 { //hsv = cvtColor(image,COLOR_BGR2HSV)下面的和这行是等价的 cvtColor(image, hsv, COLOR_BGR2HSV);//将BGR转换成HSV格式,存入hsv中,hsv是3通道 if (trackObject)//trackObject跟踪目标的个数初始化为0,或按完键盘的'c'键后也为0,当鼠标单击松开后为-1,执行核心部分 { int _vmin = vmin, _vmax = vmax; //inRange函数的功能是检查输入数组每个元素大小是否在2个给定数值之间,可以有多通道,mask保存0通道的最小值,也就是h分量。这里利用了hsv的3个通道,比较h,0~180,s,smin~256,v,min(vmin,vmax),max(vmin,vmax)。如果3个通道都在对应的范围内,则mask对应的那个点的值全为1(0xff),否则为0(0x00). inRange(hsv, Scalar(0, smin, MIN(_vmin, _vmax)), Scalar(180, 256, MAX(_vmin, _vmax)), mask); int ch[] = { 0, 0 }; //hue初始化为与hsv大小深度一样的矩阵,色调的度量是用角度表示的,红绿蓝之间相差120度,反色相差180度 hue.create(hsv.size(), hsv.depth()); mixChannels(&hsv, 1, &hue, 1, ch, 1);//将hsv第一个通道(也就是色调)的数复制到hue中,0索引数组 if (trackObject < 0)//鼠标选择区域松开后,该函数内部又将其赋值1 { //此处的构造函数roi用的是Mat hue的矩阵头,且roi的数据指针指向hue,即共用相同的数据,select为其感兴趣的区域//mask保存的hsv的最小值 ,//roi为选中区域的矩阵,maskroi为0-1矩阵操作// mask, 确定输入图像的哪个象素被计数 Mat roi(hue, selection), maskroi(mask, selection); //calcHist()函数第一个参数为输入矩阵序列,第2个参数表示输入的矩阵数目,第3个参数表示将被计算直方图维数通道的列表,第4个参数表示可选的掩码函数,第5个参数表示输出直方图,第6个参数表示直方图的维数,第7个参数为每一维直方图数组的大小,第8个参数为每一维直方图bin的边界//将roi的0通道计算直方图并通过mask放入hist中,hsize为每一维直方图的大小 //绘制色调直方图hist,仅限于用户选定的目标矩形区域 //calcHist计算颜色直方图 calcHist(&roi, 1, 0, maskroi, hist, 1, &hsize(创建直方图用的常数), &phranges(计算直方图)); //将hist矩阵进行数组范围归一化,都归一化到0~255 ,归一到255以内,超出范围的bin是没意义的 normalize(hist, hist, 0, 255, CV_MINMAX); trackWindow = selection; //只要鼠标选完区域松开后,且没有按键盘清0键'c',则trackObject一直保持为1,因此该if函数只能执行一次,除非重新选择跟踪区域 trackObject = 1; histimg = Scalar::all(0);//与按下'c'键是一样的,这里的all(0)表示的是标量全部清0 //histing是一个200*300的矩阵,hsize应该是每一个bin(像素个数)的宽度,也就是histing矩阵能分出几个bin出来 Mat buf(1, hsize, CV_8UC3);//定义一个缓冲单bin矩阵 for (int i = 0; i < hsize; i++)//saturate_case函数为从一个初始类型准确变换到另一个初始类型 //直方图每一项的颜色是根据项数变化的,Vec3b为3个char值的向量 buf.at<vec3b>(i) = Vec3b(saturate_cast<uchar>(i*180. / hsize), 255, 255); cvtColor(buf, buf, CV_HSV2BGR);//将hsv又转换成bgr for (int i = 0; i < hsize; i++) { //at函数为返回一个指定数组元素的参考值 int val = saturate_cast<int>(hist.at<float>(i)*histimg.rows / 255); //在一幅输入图像上画一个简单抽的矩形,指定左上角和右下角,并定义颜色,大小,线型等,画直方图。opencv中左上角为坐标原点 rectangle(histimg, Point(i*binW, histimg.rows), Point((i + 1)*binW, histimg.rows - val), Scalar(buf.at<vec3b>(i)), -1, 8); } } //根据直方图hist计算整幅图像的反向投影图backproj,backproj与hue相同大小计算hue图像0通道直方图hist的反向投影,并让入backproj中。 calcBackProject(&hue, 1, 0, hist, backproj, &phranges); backproj &= mask; //opencv2.0以后的版本函数命名前没有cv两字了,并且如果函数名是由2个意思的单词片段组成的话,且前面那个片段不够成单词,则第一个字母要大写,比如Camshift,如果第一个字母是个单词,则小写,比如meanShift,但是第二个字母一定要大写 //trackWindow为鼠标选择的区域,TermCriteria为确定迭代终止的准则,TermCriteria是算法完成的条件 RotatedRect trackBox = CamShift(backproj, trackWindow, //CV_TERMCRIT_EPS是通过forest_accuracy,CV_TERMCRIT_ITER TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1)); if (trackWindow.area() <= 1) { int cols = backproj.cols, rows = backproj.rows, r = (MIN(cols, rows) + 5) / 6; trackWindow = Rect(trackWindow.x - r, trackWindow.y - r, trackWindow.x + r, trackWindow.y + r) & Rect(0, 0, cols, rows);//Rect函数为矩阵的偏移和大小,即第一二个参数为矩阵的左上角点坐标,第三四个参数为矩阵的宽和高 } if (backprojMode)//转换显示方式,将backproj显示出来 { cvtColor(backproj, image, COLOR_GRAY2BGR);//因此投影模式下显示的也是rgb图? //画出椭圆,第二个参数是一个矩形,画该矩形的内接圆 // ellipse( image, trackBox, Scalar(0,0,255), 3, CV_AA );//跟踪的时候以椭圆为代表目标 image.copyTo(imgbackprojtemp); imshow("backprojection image", imgbackprojtemp); waitKey(1); } ellipse(image, trackBox, Scalar(0, 0, 255), 3, CV_AA);//跟踪的时候以椭圆为代表目标 } } //后面的代码是不管pause为真还是为假都要执行的 else if (trackObject < 0)//同时也是在按了暂停字母以后 paused = false; if (selectObject && selection.width > 0 && selection.height > 0) { Mat roi(image, selection); bitwise_not(roi, roi);//bitwise_not为将每一个bit位取反 } // imshow("backprojection image", imgbackprojtemp); imshow("CamShift Demo", image); imshow("Histogram", histimg); char c = (char)waitKey(10); if (c == 27) //退出键 break; switch (c) { case 'b': //反向投影模型交替,转换显示方式 backprojMode = !backprojMode; break; case 'c': //清零跟踪目标对象-停止追踪 trackObject = 0; histimg = Scalar::all(0); break; case 'h': //隐藏或显示直方图交替 showHist = !showHist; if (!showHist) destroyWindow("Histogram"); else namedWindow("Histogram", 1); break; case 'p': //暂停跟踪交替 paused = !paused;//frame停止从摄像头获取图像,只显示旧的图像 break; default: ; } } return 0; } </vec2f></fstream></tchar></opencv2></ctype></iostream></char></vec3b></float></int></uchar></vec3b></int></opencv2></ctype></iostream>