第七章 KinectV2结合MFC显示和处理图像数据(下)

第七章  KinectV2结合MFC显示和处理图像数据(下)

 

首先声明一下,本系统所使用的开发环境版本是计算机系统Windows 10Visual Studio 2013Opencv3.0和Kinect SDK v2.0。这些都可以在百度上找到,download下来安装一下即可。

 源码下载:http://download.csdn.net/detail/baolinq/9622544

一、在MFC中如何显示OpenCV的图像Mat 

前段时间一直在学习opencv,但学习过程中写的例子都是基于控制台的。今天打算把之前写的一些例子都移植到MFC中,基本上就是复制以前的代码,唯一的区别在于在控制台中,显示图像是先创建一个窗口,然后在窗口中显示图像,然而在MFC中,一般是将图像显示在一个picture控件中,这样就得用到CvvImage类啦,但是这里有一个问题,那就是Opencv2.2以上版本不再包含CvvImage类了,这样的话我们就不能使用这个类了。

解决方案有:

方案一:本人亲测有效,在网上找了一些资料。我们可以自己建立一个CvvImage.h和一个CvvImage.cpp的文件,添加到工程中。这样我们在工程中包含上这个CvvImage.h的头文件,就可以正常的按照以前的方式使用CvvImage类将图像绘制到MFC控件中了。

这里给出这两个文件的代码:

 

<h3>/*头文件 CvvImage.h*/  </h3>  
#pragma once  
#ifndef CVVIMAGE_CLASS_DEF  
#define CVVIMAGE_CLASS_DEF  
  
#include "cv.h"  
#include "highgui.h"  
  
/* CvvImage class definition */  
class  CvvImage  
{  
public:  
   CvvImage();  
   virtual ~CvvImage();  
   /* Create image (BGR or grayscale) */  
   virtual bool  Create( int width, int height, int bits_per_pixel, int image_origin = 0 );  
   /* Load image from specified file */  
   virtual bool  Load( const char* filename, int desired_color = 1 );  
   /* Load rectangle from the file */  
   virtual bool  LoadRect( const char* filename,  
      int desired_color, CvRect r );  
#if defined WIN32 || defined _WIN32  
   virtual bool  LoadRect( const char* filename,  
      int desired_color, RECT r )  
   {  
      return LoadRect( filename, desired_color,  
         cvRect( r.left, r.top, r.right - r.left, r.bottom - r.top ));  
   }  
#endif  
   /* Save entire image to specified file. */  
   virtual bool  Save( const char* filename );  
   /* Get copy of input image ROI */  
   virtual void  CopyOf( CvvImage& image, int desired_color = -1 );  
   virtual void  CopyOf( IplImage* img, int desired_color = -1 );  
   IplImage* GetImage() { return m_img; };  
   virtual void  Destroy(void);  
   /* width and height of ROI */  
   int Width() { return !m_img ? 0 : !m_img->roi ? m_img->width : m_img->roi->width; };  
   int Height() { return !m_img ? 0 : !m_img->roi ? m_img->height : m_img->roi->height;};  
   int Bpp() { return m_img ? (m_img->depth & 255)*m_img->nChannels : 0; };  
   virtual void  Fill( int color );  
   /* draw to highgui window */  
   virtual void  Show( const char* window );  
  
#if defined WIN32 || defined _WIN32  
   /* draw part of image to the specified DC */  
   virtual void  Show( HDC dc, int x, int y, int width, int height,  
      int from_x = 0, int from_y = 0 );  
   /* draw the current image ROI to the specified rectangle of the destination DC */  
   virtual void  DrawToHDC( HDC hDCDst, RECT* pDstRect );  
#endif  
protected:  
   IplImage*  m_img;  
};  
typedef CvvImage CImage;  
#endif 

 

 

/*源文件 CvvImage.cpp*/  
  
#include "StdAfx.h"  
#include "CvvImage.h"  
//  
// Construction/Destruction  
//  
CV_INLINE RECT NormalizeRect( RECT r );  
CV_INLINE RECT NormalizeRect( RECT r )  
{  
   int t;  
   if( r.left > r.right )  
   {  
      t = r.left;  
      r.left = r.right;  
      r.right = t;  
   }  
   if( r.top > r.bottom )  
   {  
      t = r.top;  
      r.top = r.bottom;  
      r.bottom = t;  
   }  
  
   return r;  
}  
CV_INLINE CvRect RectToCvRect( RECT sr );  
CV_INLINE CvRect RectToCvRect( RECT sr )  
{  
   sr = NormalizeRect( sr );  
   return cvRect( sr.left, sr.top, sr.right - sr.left, sr.bottom - sr.top );  
}  
CV_INLINE RECT CvRectToRect( CvRect sr );  
CV_INLINE RECT CvRectToRect( CvRect sr )  
{  
   RECT dr;  
   dr.left = sr.x;  
   dr.top = sr.y;  
   dr.right = sr.x + sr.width;  
   dr.bottom = sr.y + sr.height;  
  
   return dr;  
}  
CV_INLINE IplROI RectToROI( RECT r );  
CV_INLINE IplROI RectToROI( RECT r )  
{  
   IplROI roi;  
   r = NormalizeRect( r );  
   roi.xOffset = r.left;  
   roi.yOffset = r.top;  
   roi.width = r.right - r.left;  
   roi.height = r.bottom - r.top;  
   roi.coi = 0;  
  
   return roi;  
}  
void  FillBitmapInfo( BITMAPINFO* bmi, int width, int height, int bpp, int origin )  
{  
   assert( bmi && width >= 0 && height >= 0 && (bpp == 8 || bpp == 24 || bpp == 32));  
  
   BITMAPINFOHEADER* bmih = &(bmi->bmiHeader);  
  
   memset( bmih, 0, sizeof(*bmih));  
   bmih->biSize = sizeof(BITMAPINFOHEADER);  
   bmih->biWidth = width;  
   bmih->biHeight = origin ? abs(height) : -abs(height);  
   bmih->biPlanes = 1;  
   bmih->biBitCount = (unsigned short)bpp;  
   bmih->biCompression = BI_RGB;  
   if( bpp == 8 )  
   {  
      RGBQUAD* palette = bmi->bmiColors;  
      int i;  
      for( i = 0; i < 256; i++ )  
      {  
         palette[i].rgbBlue = palette[i].rgbGreen = palette[i].rgbRed = (BYTE)i;  
         palette[i].rgbReserved = 0;  
      }  
   }  
}  
CvvImage::CvvImage()  
{  
   m_img = 0;  
}  
void CvvImage::Destroy()  
{  
   cvReleaseImage( &m_img );  
}  
CvvImage::~CvvImage()  
{  
   Destroy();  
}  
bool  CvvImage::Create( int w, int h, int bpp, int origin )  
{  
   const unsigned max_img_size = 10000;  
  
   if( (bpp != 8 && bpp != 24 && bpp != 32) ||  
      (unsigned)w >=  max_img_size || (unsigned)h >= max_img_size ||  
      (origin != IPL_ORIGIN_TL && origin != IPL_ORIGIN_BL))  
   {  
      assert(0); // most probably, it is a programming error  
      return false;  
   }  
   if( !m_img || Bpp() != bpp || m_img->width != w || m_img->height != h )  
   {  
      if( m_img && m_img->nSize == sizeof(IplImage))  
         Destroy();  
      /* prepare IPL header */  
      m_img = cvCreateImage( cvSize( w, h ), IPL_DEPTH_8U, bpp/8 );  
   }  
   if( m_img )  
      m_img->origin = origin == 0 ? IPL_ORIGIN_TL : IPL_ORIGIN_BL;  
   return m_img != 0;  
}  
void  CvvImage::CopyOf( CvvImage& image, int desired_color )  
{  
   IplImage* img = image.GetImage();  
   if( img )  
   {  
      CopyOf( img, desired_color );  
   }  
}  
  
#define HG_IS_IMAGE(img)                                                  \  
   ((img) != 0 && ((const IplImage*)(img))->nSize == sizeof(IplImage) && \  
   ((IplImage*)img)->imageData != 0)  
  
void  CvvImage::CopyOf( IplImage* img, int desired_color )  
{  
   if( HG_IS_IMAGE(img) )  
   {  
      int color = desired_color;  
      CvSize size = cvGetSize( img );   
      if( color < 0 )  
         color = img->nChannels > 1;  
      if( Create( size.width, size.height,  
         (!color ? 1 : img->nChannels > 1 ? img->nChannels : 3)*8,  
         img->origin ))  
      {  
         cvConvertImage( img, m_img, 0 );  
      }  
   }  
}  
bool  CvvImage::Load( const char* filename, int desired_color )  
{  
   IplImage* img = cvLoadImage( filename, desired_color );  
   if( !img )  
      return false;  
  
   CopyOf( img, desired_color );  
   cvReleaseImage( &img );  
  
   return true;  
}  
bool  CvvImage::LoadRect( const char* filename,  
                   int desired_color, CvRect r )  
{  
   if( r.width < 0 || r.height < 0 ) return false;  
  
   IplImage* img = cvLoadImage( filename, desired_color );  
   if( !img )  
      return false;  
   if( r.width == 0 || r.height == 0 )  
   {  
      r.width = img->width;  
      r.height = img->height;  
      r.x = r.y = 0;  
   }  
   if( r.x > img->width || r.y > img->height ||  
      r.x + r.width < 0 || r.y + r.height < 0 )  
   {  
      cvReleaseImage( &img );  
      return false;  
   }  
   /* truncate r to source image */  
   if( r.x < 0 )  
   {  
      r.width += r.x;  
      r.x = 0;  
   }  
   if( r.y < 0 )  
   {  
      r.height += r.y;  
      r.y = 0;  
   }  
   if( r.x + r.width > img->width )  
      r.width = img->width - r.x;  
  
   if( r.y + r.height > img->height )  
      r.height = img->height - r.y;  
   cvSetImageROI( img, r );  
   CopyOf( img, desired_color );  
   cvReleaseImage( &img );  
   return true;  
}  
  
bool  CvvImage::Save( const char* filename )  
{  
   if( !m_img )  
      return false;  
   cvSaveImage( filename, m_img );  
   return true;  
}  
void  CvvImage::Show( const char* window )  
{  
   if( m_img )  
      cvShowImage( window, m_img );  
}  
void  CvvImage::Show( HDC dc, int x, int y, int w, int h, int from_x, int from_y )  
{  
   if( m_img && m_img->depth == IPL_DEPTH_8U )  
   {  
      uchar buffer[sizeof(BITMAPINFOHEADER) + 1024];  
      BITMAPINFO* bmi = (BITMAPINFO*)buffer;  
      int bmp_w = m_img->width, bmp_h = m_img->height;  
      FillBitmapInfo( bmi, bmp_w, bmp_h, Bpp(), m_img->origin );  
      from_x = MIN( MAX( from_x, 0 ), bmp_w - 1 );  
      from_y = MIN( MAX( from_y, 0 ), bmp_h - 1 );  
      int sw = MAX( MIN( bmp_w - from_x, w ), 0 );  
      int sh = MAX( MIN( bmp_h - from_y, h ), 0 );  
      SetDIBitsToDevice(  
         dc, x, y, sw, sh, from_x, from_y, from_y, sh,  
         m_img->imageData + from_y*m_img->widthStep,  
         bmi, DIB_RGB_COLORS );  
   }  
}  
void  CvvImage::DrawToHDC( HDC hDCDst, RECT* pDstRect )   
{  
   if( pDstRect && m_img && m_img->depth == IPL_DEPTH_8U && m_img->imageData )  
   {  
      uchar buffer[sizeof(BITMAPINFOHEADER) + 1024];  
      BITMAPINFO* bmi = (BITMAPINFO*)buffer;  
      int bmp_w = m_img->width, bmp_h = m_img->height;  
      CvRect roi = cvGetImageROI( m_img );  
      CvRect dst = RectToCvRect( *pDstRect );  
      if( roi.width == dst.width && roi.height == dst.height )  
      {  
         Show( hDCDst, dst.x, dst.y, dst.width, dst.height, roi.x, roi.y );  
         return;  
      }  
      if( roi.width > dst.width )  
      {  
         SetStretchBltMode(  
            hDCDst,           // handle to device context  
            HALFTONE );  
      }  
      else  
      {  
         SetStretchBltMode(  
            hDCDst,           // handle to device context  
            COLORONCOLOR );  
      }  
      FillBitmapInfo( bmi, bmp_w, bmp_h, Bpp(), m_img->origin );  
      ::StretchDIBits(  
         hDCDst,  
         dst.x, dst.y, dst.width, dst.height,  
         roi.x, roi.y, roi.width, roi.height,  
         m_img->imageData, bmi, DIB_RGB_COLORS, SRCCOPY );  
   }  
}  
void  CvvImage::Fill( int color )  
{  
   cvSet( m_img, cvScalar(color&255,(color>>8)&255,(color>>16)&255,(color>>24)&255) );  
}  

 

网上也有其他解决方案,这里就不细说了,给出链接可以自己去了解一下

方案二:

 

http://blog.csdn.net/dcrmg/article/details/51913160

 

方案三:

 

http://lh2078.blog.163.com/blog/static/5681137220131311492631/

 

 

二、对深度图像的实时处理

 

在第二章里面可以看到Kinect获取的深度图像,就是一个灰度图,用灰度等级表示距离信息,但很多时候看的不是很明显,而且对于复杂环境边框有很多黑色的噪音,不利于准确和直观判断距离信息。可以对深度进行上色处理,就是用不同的颜色表示不同的距离信息,这样就可以一目了然了。这里涉及到颜色空间的转换问题,就是RGB空间和HSV空间的转换。

 

 1下面的代码展示了如何将之前的深度位数据取反获取更好的深度影像数据16微数据变成8位,并且将8位的数据对Kinect深度范围的最大值(4500mm)取模,这样就过滤掉了大于4500mm和小于0的,把这些设置成黑色,这些黑色位置的数据是不准确的。

 

Mat temp(nHeight, nWidth, CV_16UC1);    //建立图像矩阵
pDepthFrame->CopyFrameDataToArray(nHeight * nWidth, (UINT16 *)temp.data); //先把数据存入16位的图像矩阵中
temp.convertTo(depthImg, CV_8UC1, 255.0 / 4500);   //再把16位转换为8位

 

(2) 经过处理,图像的表现力提高了一些,但是如果能够将16位的灰度级用32位彩色表示效果会更好。当 RGB值一样时,就会呈现出灰色。灰度值的范围是0~255,0为黑色,255为白色,之间的颜色为灰色。现在将灰色值以RGB模式展现出来。代码如下:

void CBodyBasics::ProcessDepth(const UINT16* pBuffer, int nWidth, int nHeight, USHORT nMinDepth, USHORT nMaxDepth)
{
// Make sure we've received valid data  
if (m_pDepthRGBX && pBuffer && (nWidth == cDepthWidth) && (nHeight == cDepthHeight))
{
RGBQUAD* pRGBX = m_pDepthRGBX;
 
// end pixel is start + width*height - 1  
const UINT16* pBufferEnd = pBuffer + (nWidth * nHeight);
 
while (pBuffer < pBufferEnd)
{
USHORT depth = *pBuffer;
//深度值除以4500(深度探测的最大值),然后乘以255,这样就可以将深度数据转换到0至255之间
//采用颜色模式显示灰度较之前采用灰度模式显示能够显示更多的细节信息
BYTE intensity = static_cast<BYTE>((depth >= nMinDepth) && (depth <= nMaxDepth) ? (depth * 255 / 4500) : 0);
pRGBX->rgbRed = intensity;
pRGBX->rgbGreen = intensity;
pRGBX->rgbBlue = intensity;
 
++pRGBX;
++pBuffer;
}
 
// Draw the data with OpenCV  
Mat DepthImage(nHeight, nWidth, CV_8UC4, m_pDepthRGBX);
Mat showImg= DepthImage.clone();
imshow("【<1>图像效果增强】", showImg);
}
}


上面的代码中,将彩色影像的格式改为了Bgr32位,这意味每一个像素占用32位(4个字节)。每一个R,G,B分别占8位,剩余8位留用。这种模式限制了RGB的取值为0-255,所以需要将深度值转换到这一个范围内。除此之外,我们还设置了最小最大的探测范围,这个和之前的一样,任何不在范围内的都设置为白色。将深度值除以4500(深度探测的最大值),然后乘以255,这样就可以将深度数据转换到0至255之间了。运行后效果如图所示,可以看出,采用颜色模式显示灰度较之前采用灰度模式显示能够显示更多的细节信息。

 

 

(3)深度数据的上色(RGB)显示

 

 将深度数据值转化到0-255并用RGB模式进行显示可以起到增强图像的效果,能够从图像上直观的看出更多的深度细节信息。还有另外一种简单,效果也不错的方法,那就是将深度数据值转换为色调和饱和度并用图像予以显示。下面的代码展示了这一实现:

//处理深度数据,RGB显示,上色
void CBodyBasics::ProcessrgbDepth(const UINT16* pBuffer, int nWidth, int nHeight, USHORT nMinDepth, USHORT nMaxDepth)
{
// Make sure we've received valid data  
if (m_pDepthRGBX && pBuffer && (nWidth == cDepthWidth) && (nHeight == cDepthHeight))
{
RGBQUAD* pRGBX = m_pDepthRGBX;
 
// end pixel is start + nWidth*nHeight - 1  
const UINT16* pBufferEnd = pBuffer + (nWidth * nHeight);
 
while (pBuffer < pBufferEnd)
{
USHORT depth= *pBuffer;
int hue; 
BYTE  intensity[3]; 
 
if (depth < nMinDepth || depth > nMaxDepth)
{
pRGBX->rgbRed = 0x00;
pRGBX->rgbGreen = 0x00;
pRGBX->rgbBlue = 0x00;
}
else
{
hue = ((360 * depth / 0xFFF) + nMinDepth);
ConvertHslToRgb(hue, 100, 100, intensity);
 
pRGBX->rgbRed = intensity[0];
pRGBX->rgbGreen = intensity[1];
pRGBX->rgbBlue = intensity[2];
}
++pRGBX;
++pBuffer;
}
 
// Draw the data with OpenCV  
Mat DepthImage(nHeight, nWidth, CV_8UC4, m_pDepthRGBX);
 Mat showImg = DepthImage.clone();
imshow("【<8>深度图上色】", showImg);
}
}


 

以上代码中使用了ConvertHslToRgb这一函数,该函数的作用是进行两个颜色空间的转换,就是将H(Hue色调)S(Saturation饱和度)L(Light亮度)颜色空间转换到RGB颜色空间的函数。参考http://www.cnblogs.com/yangecnu/archive/2012/04/04/KinectSDK_Depth_Image_Processing_Part1.html

转化的代码如下:

 

//颜色空间转换
void CBodyBasics::ConvertHslToRgb(int hue, double saturation, double lightness, byte rgb[])
{
//离摄像头近的呈蓝色,然后由近至远颜色从蓝色变为紫色,最远的呈红色
double red = 0.0;
double green = 0.0;
double blue = 0.0;
hue = hue % 360;
saturation = saturation / 100.0;
lightness = lightness / 100.0;
 
if (saturation == 0.0)
{
red = lightness;
green = lightness;
blue = lightness;
}
else
{
double huePrime = hue / 60.0;
int x = (int)huePrime;
double xPrime = huePrime - (double)x;
double L0 = lightness * (1.0 - saturation);
double L1 = lightness * (1.0 - (saturation * xPrime));
double L2 = lightness * (1.0 - (saturation * (1.0 - xPrime)));
 
switch (x)
{
case 0:
red = lightness;
green = L2;
blue = L0;
break;
case 1:
red = L1;
green = lightness;
blue = L0;
break;
case 2:
red = L0;
green = lightness;
blue = L2;
break;
case 3:
red = L0;
green = L1;
blue = lightness;
break;
case 4:
red = L2;
green = L0;
blue = lightness;
break;
case 5:
red = lightness;
green = L0;
blue = L1;
break;
}
}
 
rgb[0] = (byte)(255.0 * red);
rgb[1] = (byte)(255.0 * green);
rgb[2] = (byte)(255.0 * blue);
}

 

运行程序,会得到如下图结果离摄像头近的呈蓝色,然后由近至远颜色从蓝色变为紫色,最远的呈红色。图中,我手上托着截图用的键盘,所以可以看到,床离摄像头最近,呈蓝色,键盘比人体里摄像头更近,呈谈蓝色,人体各部分里摄像头的距离也不一样,胸、腹、头部离摄像头更近。后面的墙离摄像头最远,呈橙色至红色。

 

 

(4)利用opencv的库函数对原始深度图做一些常见处理

 

在系统中我加了一些常见的图像处理方法,大概有如下几种方法:

case 1:
ProcessDepth(pBuffer, nWidth, nHeight, nDepthMinReliableDistance, nDepthMaxReliableDistance);
break;
case 2:
createTrackbar("参数值:", "【<2>高斯滤波】", &g_nGaussianBlurValue, 40, on_GaussianBlur);	//创建滑动条
on_GaussianBlur(g_nGaussianBlurValue, 0);	//调用回调函数,	break;	//下同
case 3:
{
createTrackbar("参数值:", "【<3>双边滤波】", &g_nBilateralFilterValue, 50, on_BilateralFilter);
on_BilateralFilter(g_nBilateralFilterValue, 0);
break;
}
case 4:
createTrackbar("参数值:", "【<4>Canny边缘检测】", &g_cannyLowThreshold, 120, on_Canny); 
on_Canny(g_cannyLowThreshold, 0);
break;
 
case 5:
createTrackbar("参数值:", "【<5>Sobel边缘检测】", &g_sobelKernelSize, 3, on_Sobel);
on_Sobel(g_sobelKernelSize, 0);
break;
case 6:
createTrackbar("参数值:", "【<6>二值化】", &g_TwoThreshold, 255, on_Twozation);
on_Twozation(g_TwoThreshold, 0);
break;
case 7:
on_AdaptiveThreshold();
break;
case 8:
createTrackbar("腐蚀/膨胀", "【<8>腐蚀和膨胀】", &g_nTrackbarNumer, 1, on_TrackbarNumChange);
createTrackbar("参数值", "【<8>腐蚀和膨胀】", &g_nStructElementSize, 21, on_ElementSizeChange);
on_TrackbarNumChange(g_nTrackbarNumer, 0);
on_ElementSizeChange(g_nStructElementSize,0);
break;
case 9:
ProcessrgbDepth(pBuffer, nWidth, nHeight, nDepthMinReliableDistance, nDepthMaxReliableDistance);//上色
break;


 

回调函数如下:

static void on_GaussianBlur(int, void*)
{
//高斯滤波操作  
 GaussianBlur(depthimg, d_dstImage, Size(g_nGaussianBlurValue * 2 + 1, g_nGaussianBlurValue * 2 + 1), 0, 0);
//显示窗口  
 imshow("【<2>高斯滤波】", d_dstImage);
}
 //双边滤波函数
 static void on_BilateralFilter(int, void *)
 {
 bilateralFilter(depthimg, d_dstImage, g_nBilateralFilterValue, g_nBilateralFilterValue * 2, g_nBilateralFilterValue / 2);
 imshow("【<3>双边滤波】", d_dstImage);
 }
 //canny算子
 void on_Canny(int, void*)
 {
 Mat g_cannyDetectedEdges;	//Canny边缘检测相关变量  
 // 先使用 3x3内核来降噪  
 blur(depthimg, g_cannyDetectedEdges, Size(3, 3));
 
 // 运行我们的Canny算子  
 Canny(g_cannyDetectedEdges, g_cannyDetectedEdges, g_cannyLowThreshold, g_cannyLowThreshold * 3, 3);
 
 //先将g_dstImage内的所有元素设置为0   
 d_dstImage = Scalar::all(0);
 
 //使用Canny算子输出的边缘图g_cannyDetectedEdges作为掩码,来将原图g_srcImage拷到目标图g_dstImage中  
 depthimg.copyTo(d_dstImage, g_cannyDetectedEdges);
 
 //显示效果图  
 imshow("【<4>Canny边缘检测】", d_dstImage);
 }
 
 //Sobel算子
 void on_Sobel(int, void*)
 {
 Mat g_sobelGradient_X, g_sobelGradient_Y;	//Sobel边缘检测相关变量
 Mat g_sobelAbsGradient_X, g_sobelAbsGradient_Y;
 // 求 X方向梯度  
 Sobel(depthimg, g_sobelGradient_X, CV_16S, 1, 0, (2 * g_sobelKernelSize + 1), 1, 1, BORDER_DEFAULT);
 convertScaleAbs(g_sobelGradient_X, g_sobelAbsGradient_X);//计算绝对值,并将结果转换成8位  
 
 // 求Y方向梯度  
 Sobel(depthimg, g_sobelGradient_Y, CV_16S, 0, 1, (2 * g_sobelKernelSize + 1), 1, 1, BORDER_DEFAULT);
 convertScaleAbs(g_sobelGradient_Y, g_sobelAbsGradient_Y);//计算绝对值,并将结果转换成8位  
 
 // 合并梯度  
 addWeighted(g_sobelAbsGradient_X, 0.5, g_sobelAbsGradient_Y, 0.5, 0, d_dstImage);
 
 //显示效果图  
 imshow("【<5>Sobel边缘检测】", d_dstImage);
 
 }
 
 //二值化处理
 static void on_Twozation(int, void*)
 {
 // 转为二值图  
 cvThreshold(&IplImage(depthimg), &IplImage(d_dstImage), g_TwoThreshold, 255, CV_THRESH_BINARY);
 imshow("【<6>二值化】", d_dstImage);
 //cvReleaseImage((IplImage**)&t_dstImage);
 }
 
 static void on_AdaptiveThreshold()
 {
 // 转为二值图  
 cvAdaptiveThreshold(&IplImage(depthimg), &IplImage(d_dstImage), 255, CV_ADAPTIVE_THRESH_MEAN_C, CV_THRESH_BINARY, 3, 5);
 imshow("【<7>自适应二值化】", d_dstImage);
 }
 
 //            描述:进行自定义的腐蚀和膨胀操作  
 void Process()
 {
 //获取自定义核  
 Mat element = getStructuringElement(MORPH_RECT, Size(2 * g_nStructElementSize + 1, 2 * g_nStructElementSize + 1), Point(g_nStructElementSize, g_nStructElementSize));
 
 //进行腐蚀或膨胀操作  
 if (g_nTrackbarNumer == 0) {
 erode(depthimg, d_dstImage, element);
 }
 else{
 dilate(depthimg, d_dstImage, element);
 }
 
 //显示效果图  
 imshow("【<8>腐蚀和膨胀】", d_dstImage);
 }
 
 //            描述:腐蚀和膨胀之间切换开关的回调函数  
 void on_TrackbarNumChange(int, void *)
 {
 //腐蚀和膨胀之间效果已经切换,回调函数体内需调用一次Process函数,使改变后的效果立即生效并显示出来  
 Process();
 }
 
 //            描述:腐蚀和膨胀操作内核改变时的回调函数  
 void on_ElementSizeChange(int, void *)
 {
 //内核尺寸已改变,回调函数体内需调用一次Process函数,使改变后的效果立即生效并显示出来  
 Process();
 }


 

这些回调函数都有详细注释,用起来都非常的简单,有什么问题欢迎留言一起讨论交流。这里主要涉及到常见的opencv库函数的使用方法。这里顺便给大家推荐几个学习opencv的好博客。

(1)浅墨大神:http://blog.csdn.net/zhmxy555/article/category/1923021

这个比较新,主要是针对opencv2.4.9和3.0的

(2)MoreWindows大神:

http://blog.csdn.net/MoreWindows/article/category/1291764

这个比较早,opencv版本是2.3.1,

(3)http://blog.csdn.net/thefutureisour/article/category/1126906

。。。。

还有很多其他优秀的学习网站,内容其实差不多,都是讲一些常见函数的使用方法,毕竟opencv主要就是一些图像处理相关的库函数,学会使用这些函数可以了,当然了,如果你比较厉害,也可以研究一下opencv的源代码,反正也是开源的,只是要用cmake工具重新编译一下opencv,就可以看到所以的源码,好像是67万多行吧,有点多是吧,多看看人家那些优秀的代码是很有益的。

 

好了,这节内容差不多就是这样,主要内容是
1.如何在MFC的picture控件中显示,还是沿用opencv早期版本的做法
2.对kinect获取的深度图像作进一步的处理,让显示效果更好和更直观,主要有对原始图的16位灰度级显示成32位,并且用前面24位分别表示rgb分量,这样可以显示更多的细节信息,还有深度图的彩色显示,以及opencv里面的常见图像处理的基本方法。

 本系列文章 全部链接:

第一篇 基于Kinect v2的跌到检测系统的概述
http://blog.csdn.net/baolinq/article/details/52356863
 
第二篇 KinectV2结合opencv入门开发以及一些相关的学习资料
http://blog.csdn.net/baolinq/article/details/52356947
 
第三篇 KinectV2骨骼获取原理和获取方法及源代码
http://blog.csdn.net/baolinq/article/details/52373574
 

第四章 利用Kinect抠图和自动拍照程序

http://blog.csdn.net/baolinq/article/details/52388095

 
第五章 跌倒检测算法剖析
http://blog.csdn.net/baolinq/article/details/52400040
 
第六章 KinectV2结合MFC显示和处理图像数据(上)
http://blog.csdn.net/baolinq/article/details/52401116
 
第七章 KinectV2结合MFC显示和处理图像数据(下)
http://blog.csdn.net/baolinq/article/details/52422206

第八章  基于Kinectv2跌倒检测系统的总结

http://blog.csdn.net/baolinq/article/details/52440447


源码下载:http://download.csdn.net/detail/baolinq/9622544



下一篇文章见~

超跑开起来,要先制定一个小目标,比如先买辆兰博基尼限量款~哈哈哈


  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
### 回答1: MFC和Halcon都是常用于图像处理图像显示的工具,可以用于展示和处理连续动态图像。动态图像显示缩放是指在连续动态图像显示过程中,可以实现对图像进行缩放操作。 首先,对于MFC来说,可以使用CImage类来加载和显示图像。通过调用CImage类的Scale方法,可以实现对图像的缩放。Scale方法可以接受一个缩放比例参数,通过调整该参数的值可以实现不同程度的缩放效果。具体步骤如下: 1. 使用CImage类加载图像文件,获取图像的宽度和高度信息。 2. 创建一个新的CImage对象,作为缩放后的图像对象。 3. 调用Scale方法,传入缩放比例参数,实现图像的缩放。 4. 使用MFC提供的绘图函数(如CDC::StretchBlt)将缩放后的图像显示在窗口上。 而对于Halcon来说,可以使用其提供的显示操作符和图像操作函数来实现图像的连续动态显示和缩放。具体步骤如下: 1. 使用Halcon的图像读取函数(如read_image)加载图像文件,获取图像的宽度和高度信息。 2. 使用Halcon的显示操作符(如disp_image)将图像显示在窗口上。 3. 利用Halcon的图像操作函数(如zoom_image)进行图像的缩放操作。zoom_image函数可以接受一个缩放因子参数,通过调整该参数的值可以实现不同程度的图像缩放。 4. 使用Halcon的刷新函数(如refresh_window)更新窗口显示。 总之,无论是使用MFC还是Halcon,都可以实现对连续动态图像显示和缩放操作,只需调用相应的函数和方法即可。具体选择使用哪种工具,需要根据实际情况和需求来决定。 ### 回答2: 在MFC中,可以使用CDC类的StretchBlt函数来实现连续动态图像显示缩放。首先,创建一个CDC对象,用来绘制图像。然后,使用StretchBlt函数将图像绘制在指定位置,并指定缩放的尺寸。这样,就可以实现图像的连续动态缩放。 在Halcon中,可以使用zoom_image函数来实现连续动态图像显示缩放。首先,加载图像并创建一个窗口用于显示图像。然后,使用zoom_image函数将图像缩放到指定的尺寸,并显示在窗口中。通过不断改变缩放的尺寸,就可以实现图像的连续动态缩放。 总结而言,无论是在MFC中还是在Halcon中,都可以通过调用相应的函数来实现连续动态图像显示缩放。在MFC中使用StretchBlt函数,在Halcon中使用zoom_image函数。这些函数可以根据需要设定图像的位置和缩放的尺寸,以实现不同的效果。 ### 回答3: MFC是微软基于Windows操作系统开发的一套应用程序框架,而Halcon是一款用于机器视觉和图像处理的软件库。MFC提供了一系列图形绘制和窗口管理的功能,可以用于实现图像显示的功能。而Halcon则提供了丰富的图像处理算法和功能,可以用于图像的缩放、旋转、滤波等操作。 如果要在MFC中实现Halcon图像的连续动态显示和缩放功能,可以按照以下步骤进行: 1. 在MFC应用程序中添加Halcon库的引用和相关的头文件。 2. 创建一个MFC窗口,该窗口将用于显示Halcon图像。 3. 在窗口的OnPaint函数中,通过Halcon提供的函数将图像绘制到窗口中。可以使用halcon::disp_obj函数将图像显示在窗口中。 4. 在窗口的OnSize函数中,实现图像的缩放功能。可以通过halcon::zoom_image_size函数来调整图像的大小,并重新将图像绘制到窗口中。 5. 在需要连续动态显示的场景中,可以使用定时器或线程来定时更新图像。通过halcon::clear_window函数清空窗口内容,再通过halcon::disp_obj函数将更新后的图像显示在窗口中。 通过以上步骤,就可以在MFC中实现Halcon图像的连续动态显示和缩放功能了。通过不断更新图像并调整图像大小,可以实现图像的实时显示和缩放效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值