因项目需要,要实现pc/windows传屏到android端显示,项目已经采用ffmpeg编码解码,现在碰到了如何将解码得到的yuv数据渲染到android surfaceview 上的问题。如果将yuv转换成rgb,软件实现的方法倒是简单,但是项目要求实时性,这种效率肯定是极低的。
好像只能渲染RGB ?没有进行过测试。
header:frameworks/native/include/android/native_window.h
——参考自《Pro Android C++ with the NDK》
“虽然也是将 YUV 数据转 RGB 数据再显示,但是是通过GPU 来处理的,不同于利用 CPU 来进行颜色空间转换,速度快了很多”。glViewport(..) 是设置显示窗口的大小和位置,bindTexture(..)是分别绑定Y,U,V 数据。
下面是我整理的一些方法:
至于通过yuv转rgb,然后渲染rgb的这种方式,这里就不再赘述了。
1、ANative Window API
针对android2.3以后的版本。好像只能渲染RGB ?没有进行过测试。
header:frameworks/native/include/android/native_window.h
——参考自《Pro Android C++ with the NDK》
2、 OpenGL ES 2.0:
当平台有GPU的情况下,并且android2.2以上。“虽然也是将 YUV 数据转 RGB 数据再显示,但是是通过GPU 来处理的,不同于利用 CPU 来进行颜色空间转换,速度快了很多”。glViewport(..) 是设置显示窗口的大小和位置,bindTexture(..)是分别绑定Y,U,V 数据。
这篇文章是用java实现的gl播放yuv。
opengl的方式我也写过,但由于stagefright api的方法,并没有测试下去,以后有机会再测。
3、Private C++ API
android团队不推荐使用。The performance in this method is also the same as the ANativeWindow one(难道也只能渲染rgb?)
eg:lash, Firefox, VPlayer, MX Player and VLC for Android
这种没有深入研究,还不知道具体里面是采用了什么。