转自:http://blog.china.com/u/060803/5544/200608/15355.html
为了减少视频传输中的数据量,早就想对视频单帧图像进行压缩了。大家一定会奇怪,我为什么不用H.261, H.263, Mpeg等编码?这也是应用限制的,这些标准不是太麻烦就是要求帧间压缩。对于320*240的视频单帧图像,jpeg编码在保证50%以上质量的同时一般压缩率都在十几倍,足够满足要求了。于是,偶就上网淘源码,最经典也是最容易google到的就是:jpeg编码(基本系统),jpeg处理源代码等(这些代码,大家可以向我所要)。但是,最后发现这些代码,大家都统一用到了ijg(Independent Jpeg Group)的库,并且一致用到了函数jpeg_source_stdio(),这个函数必须从文件或其他设备流中读取数据。也就是说,如果偶想将缓冲区中采集到的一帧图像压缩成jpeg比特流,必须经过如下过程:
要知道视频采集一般都在每秒二十几帧,要是不断的采用上述手段进行压缩,我想一定会看到硬盘警灯长鸣,而且速度超慢。所以另一途径就是在缓冲区中直接进行编解码操作,最后认认真真将库中提供的jpeglib.doc文档通读了一遍,发现其中在I/O suspension一节是有相关说明的。
如果要压缩缓冲区中的bmp图像数据,就应把jpeg_compress_struct中的dest数据源替换成自己的内存缓冲区数据源。这需要先根据jpeg_destination_mgr结构的要求,实现几个自己的管理内存数据的回调函数,主要是init_destination和empty_output_buffer这两个,然后创建自己的jpeg_destination_mgr数据结构,再将jpeg_compress_struct中的dest指针指向它就可以了。后续的操作和从文件中压缩图像一模一样。回调函数的示例如下:
size_t g_buf_length = 200000;
unsigned char* g_buf = NULL;
void mem_init_destination(j_compress_ptr cinfo)
{
cinfo->dest->free_in_buffer = g_buf_length;
cinfo->dest->next_output_byte = g_buf;
}
boolean empty_output_buffer(j_compress_ptr cinfo)
{
return FALSE;
}
void mem_term_destination(j_compress_ptr cinfo)
{
}
对称的,如果要将缓冲区中的jpeg数据解压,只需要先根据jpeg_source_mgr结构的要求,实现几个自己的管理内存数据的回调函数,主要是init_source和fill_input_buffer这两个,然后创建自己的jpeg_source_mgr数据结构,再把jpeg_decompress_struct中的src指针指向它就可以了。后续的操作和从文件中解压图像一模一样。回调函数的示例如下:
size_t g_buf_length = 0;
unsigned char* g_buf = NULL;
void mem_init_source(j_decompress_ptr cinfo)
{
cinfo->src->bytes_in_buffer = g_buf_length;
cinfo->src->next_input_byte = g_buf;
}
boolean mem_fill_input_buffer(j_decompress_ptr cinfo)
{
return FALSE;
}
void mem_skip_input_data(j_decompress_ptr cinfo, long num_bytes)
{
cinfo->src->bytes_in_buffer -= num_bytes;
cinfo->src->next_input_byte += num_bytes;
}
boolean mem_resync_to_restart(j_decompress_ptr cinfo, int desired)
{
return jpeg_resync_to_restart(cinfo, desired);
}
void mem_term_source(j_decompress_ptr cinfo)
{
}