最近在做摄像头相关项目,在使用libyuv提供的函数YUY2ToARGB对接收到的YUV帧转换成ARGB,然后通过Native Surface渲染显示。结果渲染完成之后画面重叠,折腾了大半天。函数调用如下:
YUY2ToARGB(videobuffers[bufffer.index].start,captureData->CaptureWidth,argb,captureData->CaptureWidth * 4,
captureData->CaptureWidth,captureData->CaptrueHeight);
转换完成完成之后,渲染到Native Surface:
uint32_t *line = (uint32_t *) windowBuffer.bits;
for (int y = 0; y < windowBuffer.height; y++) {
for (int x = 0; x < windowBuffer.width; x++) {
int index = y * windowBuffer.width + x;
line[x] = argb[index * 4] << 16 /*B*/
| argb[index * 4 + 1] <<8/*G*/
| argb[index * 4 + 2] /*R*/
| argb[index * 4 + 3] << 24/*A*/;
}
line = line + windowBuffer.stride;
}
结果画面成下面这个鬼样子:
折腾了大半天还是有点懵,后面看了函数调用参数搞明白了。
int YUY2ToARGB(const uint8_t* src_yuy2,
int src_stride_yuy2,
uint8_t* dst_argb,
int dst_stride_argb,
int width,
int height);
src_stride_yuy2这个参数是帧width的两倍,表示的是yuv的跨距。
然后重新修改调用:
YUY2ToARGB(videobuffers[bufffer.index].start,captureData->CaptureWidth * 2,argb,captureData->CaptureWidth * 4, captureData->CaptureWidth,captureData->CaptrueHeight);
显示正常: