在使用V4L2获取摄像头数据,配置使用了 V4L2_PIX_FMT_YUYV。
那么摄像头返回的数据就是 YUYV 格式的,属于YUV422打包格式中的一种,
即yuv三个分量按2:1:1(也是4:2:2)的比例分配。
先假设V4L2取出图像的输出分辨率是 6*8,这 YUV422 的空间排布如下
首先解读上面 6x8 像素的YUV空间排布:
YUYV格式图像是YUV色彩空间的一种表示方式。
每个像素保留一个Y分量,而UV分量在水平方向上每两个Y分量采样一个U和一个V分量。
一个宏像素(macro-pixel)为4个字节,用于表示2个实际像素(pixel),平均每个像素2个字节。
对比RGB用3个字节表示一个实际像素,刚好可以节约1个字节的空间。
需要转为 NV21 或者 NV12 ,这是安卓下通用的预览标准和编码标准。
NV21 和 NV12 只是UV的排布位置对调即可。
转为 NV21 格式的数据空间排布应该是下面的样式
对比2个图可以看出,只需要把 YUV422 中按
yuv[1], yuv[3] 取出为 U 和 V
yuv[5], yuv[7] 取出为 U 和 V
可以看出每隔4个单位就是一次分量的获取。
所以设计算法
#include <stdio.h>
static int YUYV_TO_NV12(unsigned char yuyv_in[], unsigned char nv12[]){
int width = 640; // 6
int height = 480; // 8
int ynum = width * height;
int i,j,k=0, n;
int total_y = height/2;
int total_x = width/2;
// Y
for(i = 0; i < ynum; i++){
nv12[i] = yuyv_in[i<<1]; // i*2
}
n = 0;
for(i=0; i<total_y; i++){
for(j=0; j<total_x; j++){
//U 保证 uv 能够对准 411模式下 进行隔4行取一次UV 保证匹配
nv12[ynum + n] = yuyv_in[k*4*width + 1 + j*4];
// V
nv12[ynum + n-1] = yuyv_in[k*4*width + 3 + j*4];
n = n + 2;
}
k++;
}
return 1;
}
int jni_to_get_nv12(){
unsigned char* g_yuyv = (unsigned char*)malloc(640*480*2);
unsigned char* nv12 = (unsigned char*)malloc(640*480*1.5);
fill_yuyv_from_camera(g_yuyv);
YUYV_TO_NV12(g_yuyv, nv12);
free(g_yuyv);
free(nv12);
return 0;
}
上面取样方式需要说明:
因为转化会丢失掉的 25% 的数据,每隔4行抽样一次 UV 数据,才能更接近的还原图像。
转换为 NV12之后数据量减少了0.5,由原来的YUYV 640x480x2 到 640x480x1.5.
大概缺少的数据量如下
这里关于是转化为NV21 还是 NV12 的问题
我实际转化为 NV21 的时候,即按 VUVUVUVU 的顺序进行重新排列,
使用 AMediaCodec 进行编码时,才能准确的编码出视频数据,
如果按 NV12 的 UVUVUV 顺序编排,图像出现严重色差问题。
这里暂时认为是与不同的芯片平台的硬编码方式有关。