学习OpenCV——ORB & BRIEF(特征点篇)&Location

首先介绍什么是ORB:

(此部分转自http://www.cvchina.info/2011/07/04/whats-orb/

ORB是是ORiented Brief的简称。ORB的描述在下面文章中:

Ethan Rublee and Vincent Rabaud and Kurt Konolige and Gary Bradski,ORB: an efficient alternative to SIFT or SURF, ICCV 2011

论文已经可以去google下载,OpenCV2.3中已经有了实现,WillowGarage有一个talk也提到了这个算法,因此我不揣浅陋,在这里总结一下。


Brief

Brief是Binary Robust Independent Elementary Features的缩写。这个特征描述子是由EPFL的Calonder在ECCV2010上提出的。主要思路就是在特征点附近随机选取若干点对,将这些点对的灰度值的大小,组合成一个二进制串,并将这个二进制串作为该特征点的特征描述子。详细算法描述参考如下论文:

Calonder M., Lepetit V., Strecha C., Fua P.: BRIEF: Binary Robust Independent Elementary Features. ECCV 2010

注意在BRIEF eccv2010的文章中,BRIEF描述子中的每一位是由随机选取的两个像素点做二进制比较得来的。文章同样提到,在此之前,需要选取合适的gaussian kernel对图像做平滑处理。(为什么要强调这一点,因为下述的ORB对此作了改进。)

 

BRIEF的优点在于速度,缺点也相当明显:

1:不具备旋转不变性。

2:对噪声敏感

3:不具备尺度不变性。

ORB就是试图解决上述缺点中的1和2.

 

如何解决旋转不变性:

在ORB的方案中,是采用了FAST作为特征点检测算子。FAST应用的很多了,是出名的快,以防有人不知道,请看这里

FAST corner detection

在Sift的方案中,特征点的主方向是由梯度直方图的最大值和次大值所在的bin对应的方向决定的。略嫌耗时。

在ORB的方案中,特征点的主方向是通过矩(moment)计算而来,公式如下:

oriented fast


其中,零阶矩的计算如下:


一阶矩的计算如下:




有了主方向之后,就可以依据该主方向提取BRIEF描述子。但是由此带来的问题是,由于主方向会发生变化,随机点对的相关性会比较大,从而降低描述子的判别性。解决方案也很直接,采取贪婪的,穷举的方法,暴力找到相关性较低的随机点对。

                                                                sterable brief

 

如何解决对噪声敏感的问题:

在前面提到过,在最早的eccv2010的文章中,BRIEF使用的是pixel跟pixel的大小来构造描述子的每一个bit。这样的后果就是对噪声敏感。因此,在ORB的方案中,做了这样的改进,不再使用pixel-pair,而是使用9×9的patch-pair,也就是说,对比patch的像素值之和。(可以通过积分图快速计算)。

 

关于尺度不变性:

ORB没有试图解决尺度不变性,(因为FAST本身就不具有尺度不变性。)但是这样只求速度的特征描述子,一般都是应用在实时的视频处理中的,这样的话就可以通过跟踪还有一些启发式的策略来解决尺度不变性的问题。

 

关于计算速度:

ORB是sift的100倍,是surf的10倍。

 

关于性能:

下面是一个性能对比,ORB还是很给力。点击看大图。

参考Slides

 

 

 

代码:

ORB检测+透视变换定位

为了达到实时定位跟踪的效果,可以通过降低KeyPoints数量来减少检测和match时间(src.keypoint=30,img.keypoints=100时满足实时需求);

但是由于计算透视变换

//寻找两个矩阵的透视变换3*3矩阵☆☆☆☆☆☆☆☆☆☆☆☆;
 homo1 = findHomography(pt1, pt2, CV_RANSAC, (5.0));

导致了花费时间过多,这一步可以改进(通过计算keypoint的平均坐标,或者拟合边缘,下一步可以试一试)

 

下面附上代码:

 

  1. #include "opencv2/objdetect/objdetect.hpp"   
  2. #include "opencv2/features2d/features2d.hpp"   
  3. #include "opencv2/highgui/highgui.hpp"   
  4. #include "opencv2/calib3d/calib3d.hpp"   
  5. #include "opencv2/imgproc/imgproc_c.h"   
  6. #include "opencv2/imgproc/imgproc.hpp"     
  7. #include <string>  
  8. #include <vector>  
  9. #include <iostream>  
  10. using namespace cv;  
  11. using namespace std;  
  12.    
  13. char* image_filename2 = "D:/src.jpg";   
  14. char* image_filename1 = "D:/Demo1.jpg";   
  15.   
  16. unsigned int hamdist(unsigned int x, unsigned int y)   
  17. {   
  18.  unsigned int dist = 0, val = x ^ y;     
  19.  // Count the number of set bits   
  20.  while(val)   
  21.  {   
  22.   ++dist;   
  23.   val &= val - 1;   
  24.  }     
  25.  return dist;   
  26. }   
  27.   
  28. unsigned int hamdist2(unsigned char* a, unsigned char* b, size_t size)   
  29. {   
  30.  HammingLUT lut;    
  31.  unsigned int result;  
  32.  result = lut((a), (b), size);   
  33.  return result;   
  34. }    
  35.   
  36. void naive_nn_search(vector<KeyPoint>& keys1, Mat& descp1, vector<KeyPoint>& keys2, Mat& descp2, vector<DMatch>& matches)   
  37. {   
  38.  forint i = 0; i < (int)keys2.size(); i++)  
  39.  {   
  40.   unsigned int min_dist = INT_MAX;  
  41.   int min_idx = -1;  
  42.   //注意指针的用法:Mat.ptr(i)☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆☆      
  43.   unsigned char* query_feat = descp2.ptr(i);   
  44.   forint j = 0; j < (int)keys1.size(); j++)  
  45.   {   
  46.    unsigned char* train_feat = descp1.ptr(j);   
  47.    unsigned int dist =  hamdist2(query_feat, train_feat, 32);     
  48.    if(dist < min_dist)  
  49.    {   
  50.     min_dist = dist;   
  51.     min_idx = j;   
  52.    }   
  53.   }     
  54.   //if(min_dist <= (unsigned int)(second_dist * 0.8){   
  55.   if(min_dist <= 50)  
  56.   {   
  57.    matches.push_back(DMatch(i, min_idx, 0, (float)min_dist));   
  58.   }   
  59.  }   
  60. }     
  61.   
  62. void naive_nn_search2(vector<KeyPoint>& keys1, Mat& descp1, vector<KeyPoint>& keys2, Mat& descp2, vector<DMatch>& matches)   
  63. {   
  64.  forint i = 0; i < (int)keys2.size(); i++)  
  65.  {  
  66.   unsigned int min_dist = INT_MAX;   
  67.   unsigned int sec_dist = INT_MAX;   
  68.   int min_idx = -1, sec_idx = -1;  
  69.   unsigned char* query_feat = descp2.ptr(i);   
  70.   forint j = 0; j < (int)keys1.size(); j++)  
  71.   {  
  72.    unsigned char* train_feat = descp1.ptr(j);  
  73.    unsigned int dist =  hamdist2(query_feat, train_feat, 32);   
  74.    //最短距离  
  75.    if(dist < min_dist)  
  76.    {   
  77.     sec_dist = min_dist;   
  78.     sec_idx = min_idx;  
  79.     min_dist = dist;   
  80.     min_idx = j;   
  81.    }  
  82.    //次短距离  
  83.    else if(dist < sec_dist)  
  84.    {   
  85.     sec_dist = dist; sec_idx = j;   
  86.    }   
  87.   }     
  88.   if(min_dist <= (unsigned int)(sec_dist * 0.8) && min_dist <=50)  
  89.   {   
  90.    matches.push_back(DMatch(i, min_idx, 0, (float)min_dist));   
  91.   }   
  92.  }   
  93. }     
  94.   
  95. int main(int argc, char* argv[])  
  96. {  
  97.  Mat img1 = imread(image_filename1, 0);   
  98.  Mat img2 = imread(image_filename2, 0);   
  99.  //GaussianBlur(img1, img1, Size(5, 5), 0);   
  100.  //GaussianBlur(img2, img2, Size(5, 5), 0);     
  101.  ORB orb1(100, ORB::CommonParams(1.2, 1));   
  102.  ORB orb2(10, ORB::CommonParams(1.2, 1));     
  103.  vector<KeyPoint> keys1, keys2;  
  104.  Mat descriptors1, descriptors2;  
  105.  int64 st, et;   
  106.    
  107.  //提取ORB特征;  
  108.  orb1(img1, Mat(), keys1, descriptors1, false);   
  109.  printf("tem feat num: %d\n", keys1.size());  
  110.  st = cvGetTickCount();  
  111.  orb2(img2, Mat(), keys2, descriptors2, false);  
  112.  et = cvGetTickCount();   
  113.  printf("orb2 extraction time: %f\n", (et-st)/(double)cvGetTickFrequency()/1000.);   
  114.  printf("query feat num: %d\n", keys2.size());     
  115.    
  116. // find matches   
  117.  vector<DMatch> matches;     
  118.  st = cvGetTickCount();   
  119.  for(int i = 0; i < 10; i++)  
  120.  {    
  121.     naive_nn_search2(keys1, descriptors1, keys2, descriptors2, matches);   
  122.  }   
  123.  et = cvGetTickCount();     
  124.  printf("match time: %f\n", (et-st)/(double)cvGetTickFrequency()/1000.);   
  125.  printf("matchs num: %d\n", matches.size());     
  126.    
  127.  Mat showImg;    
  128.  drawMatches(img2, keys2, img1, keys1, matches, showImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255));   
  129.  string winName = "Matches";   
  130.  namedWindow( winName, WINDOW_AUTOSIZE );   
  131.  imshow( winName, showImg );   
  132.  waitKey(0);   vector<Point2f> pt1; vector<Point2f> pt2;     
  133.    
  134. for(int i = 0; i < (int)matches.size(); i++)  
  135.  {   
  136.   pt1.push_back(Point2f(keys2[matches[i].queryIdx].pt.x, keys2[matches[i].queryIdx].pt.y));    
  137.   pt2.push_back(Point2f(keys1[matches[i].trainIdx].pt.x, keys1[matches[i].trainIdx].pt.y));  
  138.  }      
  139.   
  140. Mat homo,homo1;    
  141.  st = cvGetTickCount(); //寻找两个矩阵的透视变换3*3矩阵☆☆☆☆☆☆☆☆☆☆☆☆;  
  142.  homo1 = findHomography(pt1, pt2, CV_RANSAC, (5.0));   
  143.    homo1.convertTo(homo,CV_32F);  
  144.  //normalize(homo,homo,1,0); printf("homo\n"  
  145.   "%f %f %f\n"  
  146.   "%f %f %f\n"  
  147.   "%f %f %f\n",   
  148.   homo.at<float>(0,0), homo.at<float>(0,1), homo.at<float>(0,2),   
  149.   homo.at<float>(1,0), homo.at<float>(1,1), homo.at<float>(1,2),   
  150.   homo.at<float>(2,0), homo.at<float>(2,1), homo.at<float>(2,2));     
  151.  //目标图像顶点坐标☆☆☆☆☆☆☆☆☆☆☆☆  
  152.   CvPoint src_corners[4] = {{0,0}, {img2.cols,0}, {img2.cols, img2.rows}, {0, img2.rows}};  
  153.   CvPoint dst_corners[4];  
  154.   double h[9];  
  155.   h[0]=homo.at<float>(0,0);  
  156.   h[1]=homo.at<float>(0,1);  
  157.   h[2]=homo.at<float>(0,2);   
  158.   h[3]=homo.at<float>(1,0);  
  159.   h[4]=homo.at<float>(1,1);  
  160.   h[5]=homo.at<float>(1,2);  
  161.   h[6]=homo.at<float>(2,0);  
  162.   h[7]=homo.at<float>(2,1);  
  163.   h[8]=homo.at<float>(2,2);  
  164.   size_t i;  
  165.   //利用提取到的3*3透视变换矩阵,对目标图像的四个顶点的坐标进行透视变换  
  166.   for(  i = 0; i < 4; i++ )  
  167.   {  
  168.    double x = src_corners[i].x, y = src_corners[i].y;  
  169.    double Z = 1./(h[6]*x + h[7]*y + h[8]);  
  170.    double X = (h[0]*x + h[1]*y + h[2])*Z;  
  171.    double Y = (h[3]*x + h[4]*y + h[5])*Z;  
  172.    dst_corners[i] = cvPoint(cvRound(X), cvRound(Y));  
  173.   }  
  174.   Mat img=imread(image_filename1, 1);  
  175.   //把变换后的坐标用直线连接,定位!  
  176.   for( i = 0; i < 4; i++ )  
  177.   {  
  178.    CvPoint r1 = dst_corners[i%4];  
  179.    CvPoint r2 = dst_corners[(i+1)%4];  
  180.    line( img, cvPoint(r1.x, r1.y),  
  181.     cvPoint(r2.x, r2.y ), Scalar(0,0,255),2 );  
  182.   }  
  183.   imshow( "location", img);  
  184.   et = cvGetTickCount();   
  185.   printf("ransac time: %fms\n", (et-st)/(double)cvGetTickFrequency()/1000.);  
  186.   waitKey(0);  
  187.  vector<Point2f> reproj;   
  188.  reproj.resize(pt1.size());   
  189.  //向量数组的透视变换;☆☆☆☆☆☆☆☆☆☆☆☆  
  190.  perspectiveTransform(pt1, reproj, homo);     
  191.  Mat diff;   
  192.  diff = Mat(reproj) - Mat(pt2);     
  193.  int inlier = 0;   
  194.  double err_sum = 0;   
  195.  for(int i = 0; i < diff.rows; i++)  
  196.  {   
  197.   uchar* ptr = diff.ptr(i);   
  198.   float err = ptr[0]*ptr[0] + ptr[1]*ptr[1];   
  199.   if(err < 25.f)  
  200.   {   
  201.    inlier++; err_sum += sqrt(err);   
  202.   }   
  203.  }   
  204.  printf("inlier num: %d\n", inlier);   
  205.  printf("ratio %f\n", inlier / (float)(diff.rows));   
  206.  printf("mean reprojection error: %f\n", err_sum / inlier);     
  207.  return 0;  
  208. }  


 

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
在现有省、市港口信息化系统进行有效整合基础上,借鉴新 一代的感知-传输-应用技术体系,实现对码头、船舶、货物、重 大危险源、危险货物装卸过程、航管航运等管理要素的全面感知、 有效传输和按需定制服务,为行政管理人员和相关单位及人员提 供高效的管理辅助,并为公众提供便捷、实时的水运信息服务。 建立信息整合、交换和共享机制,建立健全信息化管理支撑 体系,以及相关标准规范和安全保障体系;按照“绿色循环低碳” 交通的要求,搭建高效、弹性、高可扩展性的基于虚拟技术的信 息基础设施,支撑信息平台低成本运行,实现电子政务建设和服务模式的转变。 实现以感知港口、感知船舶、感知货物为手段,以港航智能 分析、科学决策、高效服务为目的和核心理念,构建“智慧港口”的发展体系。 结合“智慧港口”相关业务工作特点及信息化现状的实际情况,本项目具体建设目标为: 一张图(即GIS 地理信息服务平台) 在建设岸线、港口、港区、码头、泊位等港口主要基础资源图层上,建设GIS 地理信息服务平台,在此基础上依次接入和叠加规划建设、经营、安全、航管等相关业务应用专题数据,并叠 加动态数据,如 AIS/GPS/移动平台数据,逐步建成航运管理处 "一张图"。系统支持扩展框架,方便未来更多应用资源的逐步整合。 现场执法监管系统 基于港口(航管)执法基地建设规划,依托统一的执法区域 管理和数字化监控平台,通过加强对辖区内的监控,结合移动平 台,形成完整的多维路径和信息追踪,真正做到问题能发现、事态能控制、突发问题能解决。 运行监测和辅助决策系统 对区域港口与航运业务日常所需填报及监测的数据经过科 学归纳及分析,采用统一平台,消除重复的填报数据,进行企业 输入和自动录入,并进行系统智能判断,避免填入错误的数据, 输入的数据经过智能组合,自动生成各业务部门所需的数据报 表,包括字段、格式,都可以根据需要进行定制,同时满足扩展 性需要,当有新的业务监测数据表需要产生时,系统将分析新的 需求,将所需字段融合进入日常监测和决策辅助平台的统一平台中,并生成新的所需业务数据监测及决策表。 综合指挥调度系统 建设以港航应急指挥中心为枢纽,以各级管理部门和经营港 口企业为节点,快速调度、信息共享的通信网络,满足应急处置中所需要的信息采集、指挥调度和过程监控等通信保障任务。 设计思路 根据项目的建设目标和“智慧港口”信息化平台的总体框架、 设计思路、建设内容及保障措施,围绕业务协同、信息共享,充 分考虑各航运(港政)管理处内部管理的需求,平台采用“全面 整合、重点补充、突出共享、逐步完善”策略,加强重点区域或 运输通道交通基础设施、运载装备、运行环境的监测监控,完善 运行协调、应急处置通信手段,促进跨区域、跨部门信息共享和业务协同。 以“统筹协调、综合监管”为目标,以提供综合、动态、实 时、准确、实用的安全畅通和应急数据共享为核心,围绕“保畅通、抓安全、促应急"等实际需求来建设智慧港口信息化平台。 系统充分整合和利用航运管理处现有相关信息资源,以地理 信息技术、网络视频技术、互联网技术、移动通信技术、云计算 技术为支撑,结合航运管理处专网与行业数据交换平台,构建航 运管理处与各部门之间智慧、畅通、安全、高效、绿色低碳的智 慧港口信息化平台。 系统充分考虑航运管理处安全法规及安全职责今后的变化 与发展趋势,应用目前主流的、成熟的应用技术,内联外引,优势互补,使系统建设具备良好的开放性、扩展性、可维护性。
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值