说明:
1、本文所提及的摄像头不是zc0301p,使用的API不是V4L,显示所使用的上位机不是QT,特此说明。
2、UVC只是一个驱动,如果它能成功驱动摄像头,会在/dev目录下出现video(或video0、video1等等)。这样,就可以使用Linux提供(准确说不是Linux提供,具体的百度吧)的一套API,即V4L2来访问摄像头了。“使用”是指我们写的采集数据的程序,而不是指“摄像头驱动程序”。——驱动程序不是那么简单就能写出来的。
3、本文未涉及大量的如VIDIOC_S_FMT等命令字,也不涉及V4L2采集模型,一来网络上很多这种说明(原创的,转载的),本文不想偷窃他人的成果;二来诸君如果看V4L2手册、看源代码的话,会学得更多,——如果肯下心思的话。
4、源代码中本来就没有中文注释,抄于此,也不再添加中文了。
5、本文所述的程序是根据开源项目luvcview写的,理所当然的,本文的程序也会公开源代码,使用条款为GPL。至于这个程序是好是坏,就由众人去评说了。
1、驱动——UVC
在Linux中,除了SPCA和GSPCA这类经典的USB摄像头驱动外,还有一种,即Linux UVC,全称为Linux USB Video Class,从Class这个词可以看出,UVC是代码某一类的视频设备驱动,官网上的说法包括了webcams, digital camcorders, analog video converters, analog 以及 digital television tuners等等。从2.6.26版本开始,Linux UVC驱动就纳入到内核中,不需要手动下载。但是需要自己手动配置内核,才可使用UVC。
具体的测试示例,可以在这个网址上找到:
http://blog.chinaunix.net/u1/58951/showart_2199263.html
2、采集——V4L2
在Linux下,视频数据的采集有两套API,分别为V4L和V4L2。是Video For Linux的两个版本。其实在Windows下也有一套API,名为Video For Windows,即VFW,具体怎么使用,我没研究过,不过,按Windows的习俗,应该不难。
本文所用的API为V4L2,虽然它的第一个版本也可以使用,但是为了表明笔者与时俱进的精神,决心使用第二个版本。这个版本无外就下面三点:
1、打开或关闭摄像头设备都是调用POSIX标准的open或close,很简单;
2、最重要、最核心的是使用ioctl调用,通过不同的控制命令来控制摄像头,如开始捕获、停止捕获、获取摄像头信息,等等。如果研究过Linux驱动的话,对ioctl应该不陌生。
3、一些结构体,如保存摄像头信息的,捕获摄像头数据的缓冲区的,等等。
摄像头的信息保存于自定义的结构体video_info中。如下:
struct video_info
{
int camfd; /**< camera file descriptor */
struct v4l2_capability cap; //功能
struct v4l2_format fmt; //格式
struct v4l2_requestbuffers rb; //存放读取到的数据缓存
struct v4l2_buffer buf; //缓冲区
enum v4l2_buf_type type;
void* mem[NB_BUFFER]; /**< main buffers */
uint8* tmp_buffer; /**< for MJPEG */
uint8* frame_buffer; /**< one frame buffer here */
uint32 frame_size_in;
uint32 format; /**< eg YUYV or MJPEG,etc. */
int width;
int height;
int is_streaming; /**< start capture */
int is_quit;
#ifdef DEBUG
enum v4l2_field field;
uint32 bytes_per_line;
uint32 size_image;
enum v4l2_colorspace color_space;
uint32 priv;
#endif
};
在开始采集数据前,需要先看一下摄像头的信息,下面三个函数完成的功能分别为得到摄像头的属性(capability),得到摄像头的格式(format),设置摄像头的格式。属性包括了驱动信息,总线信息,是否支持流捕获等等;格式包括了摄像头数据格式(如MJPEG、YUYV等等),图像的宽、高等等。
int v4l2_get_capability(struct video_info* vd_info);
int v4l2_get_format(struct video_info* vd_info);
int v4l2_set_foramt(struct video_info* vd_info,
uint32 width, uint32 height,uint32 format);
图1为在FC系统和ARM开发板上得到的摄像头信息。从图中可以清楚看到上述所讲的各种信息。至于最后一行的错误提示,是由于我调用v4l2_set_foramt将摄像头数据格式设置为YUYV出错了,即它不支持YUYV格式。然而,当我使用这个程序在红旗操作系统下测试时,结果又不同了,它是YUYV格式了!我将它设置为MJPEG格式,同样不行,所以图2最后同样出错。(那时正兴高采烈地做毕业设计,这个问题让我足足郁闷了好几天。我想不通是什么原因)
图1 摄像头信息
图2 又一个信息
下面简单讲一下程序片段,具体的程序,参见附录中。
(1)、分配内存
switch (vd_info->format) /**< format will be also ok */
{
case V4L2_PIX_FMT_MJPEG:
vd_info->tmp_buffer =
(uint8 *)calloc(1, (size_t)vd_info->frame_size_in);
if (vd_info->tmp_buffer == NULL)
error_out("unable alloc tmp_buffer");
vd_info->frame_buffer =
(uint8 *)calloc(1, (size_t)vd_info->width * (vd_info->height+8) * 2);
if (vd_info->frame_buffer == NULL)
error_out("unable alloc frame_buffer");
break;
case V4L2_PIX_FMT_YUYV:
vd_info->frame_buffer =
(uint8 *)calloc(1,(size_t)vd_info->frame_size_in);
if (vd_info->frame_buffer == NULL)
error_out("unable alloc frame_buffer");
break;
default:
msg_out("error!/n");
return -1;
break;
}
因为YUYV是一种原始数据,可以直接显示,不需要编解码,而MJPEG格式的,需要解码,所以分要分配两个缓冲区。
(2)、打开,O_NONBLOCK是以非阻塞方式打开。
vd_info->camfd = open(device, O_RDWR /*| O_NONBLOCK*/, 0);
if (vd_info->camfd < 0)
error_out("can not open the device");
(3)、查询
if (-1 == ioctl(vd_info->camfd, VIDIOC_QUERYCAP, &vd_info->cap))
error_out("query camera failed");
if (0 == (vd_info->cap.capabilities & V4L2_CAP_VIDEO_CAPTURE))
{
debug_msg("video capture not supported./n");
return -1;
}
(4)、设置格式
memset(&vd_info->fmt, 0, sizeof(struct v4l2_format));
vd_info->fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
vd_info->fmt.fmt.pix.width = width;
vd_info->fmt.fmt.pix.height = height;
vd_info->fmt.fmt.pix.field =V4L2_FIELD_ANY;
vd_info->fmt.fmt.pix.pixelformat = format;
if (-1 == ioctl(vd_info->camfd, VIDIOC_S_FMT, &vd_info->fmt))
error_out("unable to set format ");
(5)、查询缓冲区、映射到用户空间内存
memset(&vd_info->rb, 0, sizeof(struct v4l2_requestbuffers));
vd_info->rb.count = NB_BUFFER; /**< 4 buffers */
vd_info->rb.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
vd_info->rb.memory = V4L2_MEMORY_MMAP;
if (-1 == ioctl(vd_info->camfd, VIDIOC_REQBUFS, &vd_info->rb))
error_out("unable to allocte buffers");
/* map the buffers(4 buffer) */
for (i = 0; i < NB_BUFFER; i++)
{
memset(&vd_info->buf, 0, sizeof(struct v4l2_buffer));
vd_info->buf.index = i;
vd_info->buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
vd_info->buf.memory = V4L2_MEMORY_MMAP;
if (-1 == ioctl(vd_info->camfd, VIDIOC_QUERYBUF, &vd_info->buf))
error_out("unable to query buffer");
/* map it, 0 means anywhere */
vd_info->mem[i] =
mmap(0, vd_info->buf.length, PROT_READ, MAP_SHARED,
vd_info->camfd, vd_info->buf.m.offset);
/* MAP_FAILED = (void *)-1 */
if (MAP_FAILED == vd_info->mem[i])
error_out("unable to map buffer");
}
(6)、进入队列
/* queue the buffers */
for (i = 0; i < NB_BUFFER; i++)
{
memset(&vd_info->buf, 0, sizeof(struct v4l2_buffer));
vd_info->buf.index = i;
vd_info->buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
vd_info->buf.memory = V4L2_MEMORY_MMAP;
if (-1 == ioctl(vd_info->camfd, VIDIOC_QBUF, &vd_info->buf))
error_out("unable to queue the buffers");
}
(7)、开始捕获(发出捕获信号)
vd_info->type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (-1 == ioctl(vd_info->camfd, VIDIOC_STREAMON, &vd_info->type))
error_out("unable to start capture");
vd_info->is_streaming = 1;
debug_msg("stream on OK!!/n");
debug_msg("===============================/n/n");
(8)、采集(从缓冲区队列中取出数据,再将数据的内存复制另一内存区)
static int count = 0;
if (!vd_info->is_streaming) /**< if stream is off, start it */
{
if (v4l2_on(vd_info)) /**< failed */
goto err;
}
memset(&vd_info->buf, 0, sizeof(struct v4l2_buffer));
vd_info->buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
vd_info->buf.memory = V4L2_MEMORY_MMAP;
/* get data from buffers */
if (-1 == ioctl(vd_info->camfd, VIDIOC_DQBUF, &vd_info->buf))
{
msg_out("unable to dequeue buffer/n");
goto err;
}
switch (vd_info->format)
{
case V4L2_PIX_FMT_MJPEG:
if (vd_info->buf.bytesused <= HEADFRAME1)
{
msg_out("ignore empty frame.../n");
return 0;
}
/* we can save tmp_buff to a jpg file,just write it! */
memcpy(vd_info->tmp_buffer, vd_info->mem[vd_info->buf.index],
vd_info->buf.bytesused);
/* here decode MJPEG,so we can dispaly it */
if (jpeg_decode(&vd_info->frame_buffer, vd_info->tmp_buffer,
&vd_info->width, &vd_info->height) < 0 )
{
msg_out("decode jpeg error/n");
goto err;
}
break;
case V4L2_PIX_FMT_YUYV:
if (vd_info->buf.bytesused > vd_info->frame_size_in)
memcpy(vd_info->frame_buffer, vd_info->mem[vd_info->buf.index],
(size_t)vd_info->frame_size_in);
else
memcpy(vd_info->frame_buffer, vd_info->mem[vd_info->buf.index],
(size_t)vd_info->buf.bytesused);
break;
default:
goto err;
break;
}
/* here you can process the frame! */
v4l2_process(vd_info);
/* queue buffer again */
if (-1 == ioctl(vd_info->camfd, VIDIOC_QBUF, &vd_info->buf))
{
fprintf(stderr,"requeue error/n");
goto err;
}
debug_msg("frame:%d/n", count++);
debug_msg("frame size in: %d KB/n", vd_info->frame_size_in>>10);
return 0;
err:
vd_info->is_quit = 0;
return -1;
(9)、停止捕获(发送停止信号)
vd_info->type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (-1 == ioctl(vd_info->camfd, VIDIOC_STREAMOFF, &vd_info->type))
error_out("unable to stop capture");
vd_info->is_streaming = 0;
debug_msg("stream off OK!/n");
debug_msg("===============================/n/n");
(10)、关闭设备(释放内存、关闭设备)
uint16 i = 0;
if (vd_info->is_streaming) /**< stop if it is still capturing */
v4l2_off(vd_info);
if (vd_info->frame_buffer)
free(vd_info->frame_buffer);
if (vd_info->tmp_buffer)
free(vd_info->tmp_buffer);
vd_info->frame_buffer = NULL;
/* it is a good thing to unmap! */
for (i = 0; i < NB_BUFFER; i++)
{
if (-1 == munmap(vd_info->mem[i], vd_info->buf.length))
error_out("munmap");
}
close(vd_info->camfd);
debug_msg("close OK!/n");
3、显示——SDL
SDL是Simple DirectMedia Layer的简称,是一个自由的跨平台的多媒体开发包,适用于游戏、游戏SDK、演示软件、模拟器、MPEG播放器和其他应用软件。本文将它大材小用,用于显示采集得到的视频数据。
显示的代码片段如下:
SDL_Surface *pscreen = NULL;
SDL_Overlay *overlay = NULL;
SDL_Rect drect;
SDL_Event sdlevent;
SDL_mutex *affmutex = NULL;
unsigned char frmrate;
unsigned char *p = NULL;
uint32 currtime;
uint32 lasttime;
char* status = NULL;
/************* Test SDL capabilities ************/
/* memory leak here */
if (SDL_Init(SDL_INIT_VIDEO) < 0)
{
fprintf(stderr, "Couldn't initialize SDL: %s/n", SDL_GetError());
exit(1);
}
/* it need to alloc space! */
vd_info = (struct video_info *) calloc(1, sizeof(struct video_info));
/* init the camera,you can change the last three params!!! */
if (v4l2_init(vd_info, V4L2_PIX_FMT_YUYV, 640, 480) < 0)
return EXIT_FAILURE;
pscreen =
SDL_SetVideoMode(vd_info->width, vd_info->height, 0,
SDL_VIDEO_Flags);
overlay =
SDL_CreateYUVOverlay(vd_info->width, vd_info->height,
SDL_YUY2_OVERLAY, pscreen);
/* here?? */
p = (unsigned char *) overlay->pixels[0];
drect.x = 0;
drect.y = 0;
drect.w = pscreen->w;
drect.h = pscreen->h;
lasttime = SDL_GetTicks();
affmutex = SDL_CreateMutex();
/* big loop */
while (vd_info->is_quit)
{
while (SDL_PollEvent(&sdlevent))
{
if (sdlevent.type == SDL_QUIT)
{
vd_info->is_quit = 0;
break;
}
}
currtime = SDL_GetTicks();
if (currtime - lasttime > 0)
{
frmrate = 1000/(currtime - lasttime);
}
lasttime = currtime;
if (v4l2_grab(vd_info) < 0)
{
printf("Error grabbing /n");
break;
}
SDL_LockYUVOverlay(overlay);
/* frame_buffer to p */
memcpy(p, vd_info->frame_buffer,
vd_info->width * (vd_info->height) * 2);
SDL_UnlockYUVOverlay(overlay);
SDL_DisplayYUVOverlay(overlay, &drect); /* dispaly it */
status = (char *)calloc(1, 20*sizeof(char));
sprintf(status, "come on fps:%d",frmrate);
SDL_WM_SetCaption(status, NULL);
SDL_Delay(10);
}
SDL_DestroyMutex(affmutex);
SDL_FreeYUVOverlay(overlay);
v4l2_close(vd_info);
free(status);
free(vd_info);
printf("Clean Up done Quit /n");
SDL_Quit();
return 0;
在红旗操作系统下测试如图3所示。最上面的即为SDL绘制的窗口(至于它向下调用什么图形库就不用理会了),中间的为控制台,它不断输出采集到的帧数以及每一帧的大小。最下面的是emacs。
图3 测试示例图
附:
为了演示emacs的多窗口gdb调试,现附上几个图。算是emacs篇的补充吧。
附图1中,已经加载了可执行文件,并设置了断点(命令为b main emacs,单步后,中间窗口出现红点即为断点处)。
附图2所示的是正在显示图像,左上角即为控制台,出现的信息同上述截图一样。
附图3为结束的情形。重新回到gdb等待命令状态。
此时的emacs五个窗口中各有自己的功能,从上而下,分别为控制台、变量、源代码、帧栈以及断点。
看到了吧?emacs中调试不比VC差吧?
附图1 开始
附图2 显示
附图3 结束
再附:
UVC官网:
http://www.ideasonboard.org/uvc/
V4L2官网: