从大三开始就开始做一些东西了,但是由于自己总是不善于总结,导致自己总是重复学习,看了一些大神的博客之后,觉得写博客确实可以促进学习,所以就总结一下最近和同学做的一个毕业设计。水平有限,如有错误,请大家指出这个项目算是同学的毕业设计吧,在总结了一些前人的经验之后,我觉得这个东西还是可以继续往下做的,例如做一些自动化监控,图像识别之类的。这些就是后话了。由于时间有限,一些代码没有详细注释或者作出解释,以后会慢慢添加的。
这个是整个工程的源代码一键make就可以了
当然前提是有FFMpeg库和x264库和jrtplib库
关于这几个库的编译,大家可以去百度一下,网上资料还是比较多的。
http://download.csdn.net/detail/wisha1989/5101634
(一) 图像的采集:
图像采集使用的是v4l2 接口,在嵌入式linux里面自带了的,这一块没啥难度,就是网上摘抄的代码,写了两接口函数:
#ifndef V4L2CAPTURE_H
#define V4L2CAPTURE_H
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <assert.h>
#include <getopt.h>
#include <fcntl.h>
#include <unistd.h>
#include <errno.h>
#include <malloc.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/time.h>
#include <sys/mman.h>
#include <sys/ioctl.h>
#include <asm/types.h>
#include <linux/videodev2.h>
extern "C"
{
#include"libavcodec/avcodec.h"
#include"libavformat/avformat.h"
#include"libswscale/swscale.h"
#include"libavdevice/avdevice.h"
#include"libavutil/avutil.h"
#include"libavfilter/avfilter.h"
}
#define CLEAR(x) memset (&(x), 0, sizeof (x))
struct buffer
{
void * start;
size_t length;
};
int v4l2capture_init(int width ,int height ,const char* dev );//图象采集初始化函数,采集宽度、高度、设备路径
int v4l2capture(AVPacket *avpkt); //图象采集函数,使用的ffmpeg里面的数据结构AVPacket
#endif // V4L2CAPTURE_H
以上就是采集模块的头文件(写得不是很规范啊,是不是应该用extern “C” 扩起来呢?),下面就是两个函数的实现,其实真的没啥新意,这类代码已经很多了
就是我的摄像头采集出来是yuv422打包格式的,但是根据h264标准,只能编码yuv420p格式的图像的,所以要转换一下(这个后面会提一下的)
static int fd = -1;
struct buffer * buffers = NULL;
static unsigned int n_buffers = 0;
static unsigned long file_length;
static unsigned char *file_name;
void v4l2Capture_release();
static int read_frame (AVPacket *avpkt)
{
struct v4l2_buffer buf;
unsigned int i;
CLEAR (buf);
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
int ff = ioctl (fd, VIDIOC_DQBUF, &buf); //缓存出列
if(ff<0)
fprintf(stderr,"failture = %d\n",ff);
assert (buf.index < n_buffers);
fprintf(stderr,"capture frame size: %d\n\n",buffers[buf.index].length);
uint8_t* tbuf = (uint8_t*)malloc(buffers[buf.index].length);
memcpy(tbuf,buffers[buf.index].start,buffers[buf.index].length);
avpkt->data = tbuf;
avpkt->size = buffers[buf.index].length;
ff=ioctl (fd, VIDIOC_QBUF, &buf); //缓存入列
if(ff<0)
printf("failture VIDIOC_QBUF\n");
return 1;
}
int v4l2capture(AVPacket *avpkt)
{
read_frame(avpkt);
return 0;
}
int v4l2capture_init(int width ,int height ,const char* dev )
{
struct v4l2_capability cap;
struct v4l2_format fmt;
unsigned int i;
enum v4l2_buf_type type;
//
///open video dev
fd = open(dev,O_RDWR); // open the dev with blocked
if(fd == -1)
{
fprintf(stderr,"open dev failed!\n");
}
else
{
fprintf(stderr,"open dev success! dev:%s\n\n",dev);
}
int ff=ioctl (fd, VIDIOC_QUERYCAP, &cap);//获取摄像头参数
if(ff<0)
fprintf(stderr,"failture VIDIOC_QUERYCAP\n");
struct v4l2_fmtdesc fmt1;
int ret;
memset(&fmt1, 0, sizeof(fmt1));
fmt1.index = 0;
fmt1.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
//
//enum the supported
//video type
while ((ret = ioctl(fd, VIDIOC_ENUM_FMT, &fmt1)) == 0)
{
fmt1.index++;
fprintf(stderr,"{ pixelformat = '%c%c%c%c', description = '%s' }\n",
fmt1.pixelformat & 0xFF, (fmt1.pixelformat >> 8) & 0xFF,
(fmt1.pixelformat >> 16) & 0xFF, (fmt1.pixelformat >> 24) & 0xFF,
fmt1.description);
}
//
//set the video type
CLEAR (fmt);
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.width = width;
fmt.fmt.pix.height = height;
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;//V4L2_PIX_FMT_YVU420;//V4L2_PIX_FMT_YUYV;
fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
ff = ioctl (fd, VIDIOC_S_FMT, &fmt); //设置图像格式
if(ff<0)
fprintf(stderr,"failture VIDIOC_S_FMT\n");
file_length = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height; //计算图片大小
struct v4l2_requestbuffers req;
CLEAR (req);
req.count = 5;
req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;
ioctl (fd, VIDIOC_REQBUFS, &req); //申请缓冲,count是申请的数量
if(ff<0)
fprintf(stderr,"failture VIDIOC_REQBUFS\n");
if (req.count < 1)
fprintf(stderr,"Insufficient buffer memory\n");
buffers = (buffer*)calloc (req.count, sizeof (*buffers));//内存中建立对应空间
for (n_buffers = 0; n_buffers < req.count; ++n_buffers){
struc