所以说,这是 MediaCodec
本身的 bug,它自己会对输入的 YUV 图像的 u/v 进行交换,解决的方案有 2 种:
- 使用
ByteBuffer 模式
,在把 NV21 图像传给MediaCodec
之前,先把 NV21 转成 NV12(毕竟这俩货仅仅只是 u/v 相反而已),但前面已经提到了,只是少数设备会有这种情况,适配起来估计有够呛的。不推荐
- 使用
Surface 模式
,可以完美避免这种情况,但同时会丧失对原 YUV 图像的处理能力,不过可以使用 OpenGL 方式来处理图像。推荐
3、实现
大致步骤如下:
- 一方面,使用 OpenGL 纹理创建纹理,并包装为 SurfaceTexture 给相机作为 preview 窗口,这样相机图像就会呈现在纹理上。
- 另一方面,使用
mMediaCodec.createInputSurface()
作为 MediaCodec 的编码数据源。 - 最后,在相机预览的同时,让纹理上的图像绘制到
inputSurface
。
说明:Camera —> TextureId(OpenGL) —> InputSurface(MediaCodec)
具体实现可以在 bigflake 的 Demo(CameraToMpegTest) 中获取:www.bigflake.com/mediacodec/…
二、录像时长缩水(丢帧)
解决该问题有两个关键:
- 时间戳对齐:
ByteBuffer 模式
:通过MediaCodec.queueInputBuffer()
手动将 YUV 图像传给MediaCodec
的同时,需要传递当前的时间戳,注意时间单位是微秒(us)。Surface 模式
:通过