我最开始学习OpenCV的时候,网上搜索,获取某个像素点的值,大概是这样的,
srcImg.at<uchar>(i, j)
当然这样可以获取,但是效率很低,也就是速度很慢,然后网上搜索了第二个方法,大概是这样的
int MainWindow::brightTest(Mat &grayImage){
int height = grayImage.rows;
int width = grayImage.cols;
unsigned int sumBright = 0;
int totalCount = height * width;
if(totalCount == 0){
return -1;
}
for(int i = 0; i < height; i++){
for(int j = 0; j < width; j++){
sumBright += grayImage.data[i * width + j];
}
}
return sumBright / totalCount;
}
直观上看,也没啥问题,因为data指的就是Mat的数据区,然后根据坐标来算出具体的位置偏移,再获取像素值,但这里实际上是有一个坑,就是说Mat的数据可能是不连续的,也就是如果用isContinuous函数来判断的话,可能数据不是连续存储的,可以参考
OpenCV isContinuous()连续存储的问题_pan_jinquan的博客-CSDN博客
cv::Rect rect(1, 1, 100, 100);
cv::Mat crop_img = src(rect);//裁剪后的图像是不连续的
而我传入的参数,经常是传入ROI区域,在按照上述方法调用时,经常获取不到预期结果,
之前想的办法是,如果传入一个grayImage,那我就先clone一下,clone之后的图像就可以获取到正确的结果,
crop_img2 = crop_img.clone();//重新clone()后的图像是连续的
这是以前我经常干的事儿,当然实际也有另一个方案,对于不连续存储的数据,也能获取到正确的结果,参考代码如下:
int MainWindow::brightTest(Mat &grayImage){
int height = grayImage.rows;
int width = grayImage.cols;
unsigned int sumBright = 0;
int totalCount = height * width;
if(totalCount == 0){
return -1;
}
for(int i = 0; i < height; i++){
for(int j = 0; j < width; j++){
sumBright += grayImage.ptr<uchar>(i)[j];
}
}
return sumBright / totalCount;
}
也就是用ptr的方法来获取像素点的亮度值
备份CMakeLists.txt
cmake_minimum_required(VERSION 2.8)
project(CameraShow)
if(MSVC)
option(OpenCV_STATIC "Use static OpenCV libraries" OFF)
endif()
find_package(OpenCV REQUIRED)
include_directories(. ${OpenCV_INCLUDE_DIRS})
add_executable(CameraShow
main.cpp)
target_link_libraries(CameraShow ${OpenCV_LIBS})