2024年Android最新从零开发一款Android RTMP播放器(1),面试突击第二季

最后

我见过很多技术leader在面试的时候,遇到处于迷茫期的大龄程序员,比面试官年龄都大。这些人有一些共同特征:可能工作了5、6年,还是每天重复给业务部门写代码,工作内容的重复性比较高,没有什么技术含量的工作。问到这些人的职业规划时,他们也没有太多想法。

其实30岁到40岁是一个人职业发展的黄金阶段,一定要在业务范围内的扩张,技术广度和深度提升上有自己的计划,才有助于在职业发展上有持续的发展路径,而不至于停滞不前。

不断奔跑,你就知道学习的意义所在!

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

oarplayer使用的是srs-librtmp,srs-librtmp是从SRS服务器导出的一个客户端库,作者提供srs-librtmp初衷是:

  1. 觉得rtmpdump/librtmp的代码太难读了,而SRS的代码可读性很好;

  2. 压测工具srs-bench是个客户端,需要一个客户端库;

  3. 觉得服务器能搞好,客户端也不在话下

目前srs-librtmp作者已经停止维护,主要原因如作者所说:

决定开源项目正义的绝对不是技术多好,而是能跑多久。技术很牛,性能很强,代码风格很好,固然是个好事,但是这些都顶不上一个“不维护”的大罪过,代码放出来不维护,怎么跟进业内技术的不断发展呢。而决定能跑多久的,首先是技术热情,然后是维护者的领域背景。SRS的维护者都是服务器背景,大家的工作都是在服务器,客户端经验太少了,无法长久维护客户端的库。因此,SRS决定果断放弃srs-librtmp,不再维护客户端库,聚焦于服务器的快速迭代。客户端并非不重要,而是要交给专业的客户端的开源项目和朋友维护,比如FFmpeg也自己实现了librtmp。

oarplayer当初使用srs-librtmp是基于srs-librtmp代码的可读性考虑。oarplayer有相当高的模块化特性,可以很方便的替换各个rtmp lib实现。这里介绍srs-librtmp接口:

  1. 创建srs_rtmp_t对象:srs_rtmp_create(url);

  2. 设置读写超时时间:srs_rtmp_set_timeout;

  3. 开始握手:srs_rtmp_handshake;

  4. 开始连接:srs_rtmp_connect_app;

  5. 设置播放模式:srs_rtmp_play_stream;

  6. 循环读取音视频包:srs_rtmp_read_packet(rtmp, &type, &timestamp, &data, &size);

  7. 解析音频包:

  8. 获取编码类型:srs_utils_flv_audio_sound_format;

  9. 获取音频采样率:srs_utils_flv_audio_sound_rate;

  10. 获取采样位深:srs_utils_flv_audio_sound_size;

  11. 获取声道数:srs_utils_flv_audio_sound_type;

  12. 获取音频包类型:srs_utils_flv_audio_aac_packet_type;

  13. 解析视频包:

  14. 获取编码类型:srs_utils_flv_video_codec_id;

  15. 是否关键帧:srs_utils_flv_video_frame_type;

  16. 获取视频包类型:srs_utils_flv_video_avc_packet_type;

  17. 解析metadata类型;

  18. 销毁srs_rtmp_t对象:srs_rtmp_destroy;

这里有个小技巧,我们在拉流线程中,循环调用srs_rtmp_read_packet方法,可以通过srs_rtmp_set_timeout设置超时时间,但是如果超时时间设置的太短,会导致频繁的唤起线程,如果设置超时时间太长,我们在停止时,必须等待超时结束才会能真正结束。这里我们可以使用poll模型,将rtmp的tcp socket放入poll中,再放入一个管道fd,在需要停止时向管道写入一个指令,唤醒poll,直接停止rtmp拉流线程。

5. 主要数据结构


5.1 package结构:

typedef struct OARPacket {

int size;//包大小

PktType_e type;//包类型

int64_t dts;//解码时间戳

int64_t pts;//显示时间戳

int isKeyframe;//是否关键帧

struct OARPacket *next;//下一个包地址

uint8_t data[0];//包数据内容

}OARPacket;

5.2 package队列:

typedef struct oar_packet_queue {

PktType_e media_type;//类型

pthread_mutex_t *mutex;//线程锁

pthread_cond_t *cond;//条件变量

OARPacket *cachedPackets;//队列首地址

OARPacket *lastPacket;//队列最后一个元素

int count;//数量

int total_bytes;//总字节数

uint64_t max_duration;//最大时长

void (*full_cb)(void *);//队列满回调

void (*empty_cb)(void *);//队列为空回调

void *cb_data;

} oar_packet_queue;

5.3 Frame类型

typedef struct OARFrame {

int size;//帧大小

PktType_e type;//帧类型

int64_t dts;//解码时间戳

int64_t pts;//显示时间戳

int format;//格式(用于视频)

int width;//宽(用于视频)

int height;//高(用于视频)

int64_t pkt_pos;

int sample_rate;//采样率(用于音频)

struct OARFrame *next;

uint8_t data[0];

}OARFrame;

5.4 Frame队列

typedef struct oar_frame_queue {

pthread_mutex_t *mutex;

pthread_cond_t *cond;

OARFrame *cachedFrames;

OARFrame *lastFrame;

int count;//帧数量

unsigned int size;

} oar_frame_queue;

6. 解码线程


我们的rtmp流拉取、解码、渲染、音频输出都在C层实现。在C层,Android 21之后系统提供了AMediaCodec接口,我们直接find_library(media-ndk mediandk),并引入<media/NdkMediaCodec.h>头文件即可。对于Android 21之前版本,可以在C层调用Java层的MediaCodec。下面分别介绍两种实现:

6.1 Java层代理解码

Java层MediaCodec解码使用步骤:

  1. 创建解码器:codec = MediaCodec.createDecoderByType(codecName);

  2. 配置解码器格式:codec.configure(format, null, null, 0);

  3. 启动解码器:codec.start()

  4. 获取解码输入缓存ID:dequeueInputBuffer

  5. 获取解码输入缓存:getInputBuffer

  6. 获取解码输出缓存:dequeueOutputBufferIndex

  7. 释放输出缓存:releaseOutPutBuffer

  8. 停止解码器:codec.stop();

Jni层封装对应的调用接口即可。

6.2 C层解码器使用

C层接口介绍:

  1. 创建Format:AMediaFormat_new;

  2. 创建解码器:AMediaCodec_createDecoderByType;

  3. 配置解码参数:AMediaCodec_configure;

  4. 启动解码器:AMediaCodec_start;

  5. 输入音视频包:

  6. 获取输入buffer序列:AMediaCodec_dequeueInputBuffer

  7. 获取输入buffer:AMediaCodec_getInputBuffer

  8. 拷贝数据:memcpy

  9. 输入buffer放入解码器:AMediaCodec_queueInputBuffer

  10. 获取解码后帧:

  11. 获取输出buffer序列:AMediaCodec_dequeueOutputBuffer

  12. 获取输出buffer:AMediaCodec_getOutputBuffer

我们发现不管是Java层还是C层的接口都是提供了类似的思路,其实他们最终调用的还是系统的解码框架。

这里我们可以根据系统版本来觉得使用Java层接口和C层接口,我们的oarplayer,主要的代码都是在C层实现,所以我们也有限使用C层接口。

7. 音频输出线程


音频输出我们使用opensl实现,之前文章介绍过Android音频架构,其实也可以使用AAudio或者Oboe。这里再简单介绍下opensl es的使用。

  1. 创建引擎:slCreateEngine(&engineObject, 0, NULL, 0, NULL, NULL);

  2. 实现引擎:(*engineObject)->Realize(engineObject, SL_BOOLEAN_FALSE);

  3. 获取接口:(*engineObject)->GetInterface(engineObject, SL_IID_ENGINE, &engineEngine);

  4. 创建输出混流器:(*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 0, NULL, NULL);;

  5. 实现混流器:(*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE);

  6. 配置音频源:SLDataLocator_AndroidSimpleBufferQueue loc_bufq = {SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE, 2};

  7. 配置Format:SLDataFormat_PCM format_pcm = {SL_DATAFORMAT_PCM, channel, SL_SAMPLINGRATE_44_1,SL_PCMSAMPLEFORMAT_FIXED_16, SL_PCMSAMPLEFORMAT_FIXED_16,SL_SPEAKER_FRONT_LEFT | SL_SPEAKER_FRONT_RIGHT, SL_BYTEORDER_LITTLEENDIAN};

  8. 创建播放器:(*engineEngine)->CreateAudioPlayer(engineEngine,&bqPlayerObject, &audioSrc, &audioSnk,2, ids, req);

  9. 实现播放器:(*bqPlayerObject)->Realize(bqPlayerObject, SL_BOOLEAN_FALSE);

  10. 获取播放接口:(*bqPlayerObject)->GetInterface(bqPlayerObject, SL_IID_PLAY, &bqPlayerPlay);

  11. 获取缓冲区接口:(*bqPlayerObject)->GetInterface(bqPlayerObject, SL_IID_ANDROIDSIMPLEBUFFERQUEUE,&bqPlayerBufferQueue);

  12. 注册缓存回调:(*bqPlayerBufferQueue)->RegisterCallback(bqPlayerBufferQueue, bqPlayerCallback, oar);

  13. 获取音量调节器:(*bqPlayerObject)->GetInterface(bqPlayerObject, SL_IID_VOLUME, &bqPlayerVolume);

  14. 缓存回调中不断的从音频帧队列读取数据,并写入缓存队列:(*bqPlayerBufferQueue)->Enqueue(bqPlayerBufferQueue, ctx->buffer,(SLuint32)ctx->frame_size);

上面就是音频播放的opensl es接口使用介绍。

8. 渲染线程


相比较于音频播放,视频渲染可能更复杂一些,除了opengl引擎创建,opengl线程创建,oarplayer使用的是基于音频的同步方式,所以在视频渲染时还需要考虑音视频同步问题。

8.1 OpenGL引擎创建

  1. 生成buffer:glGenBuffers

  2. 绑定buffer:glBindBuffer(GL_ARRAY_BUFFER, model->vbos[0])

  3. 设置清屏色:glClearColor

  4. 创建纹理对象:texture2D

  5. 创建着色器对象:glCreateShader

  6. 设置着色器源码:glShaderSource

  7. 编译着色器源码:glCompileShader

  8. 附着着色器:glAttachShader

  9. 连接着色器:glLinkProgram

opengl与硬件交互还需要EGL环境,下面展示EGL初始化流程代码:

static void init_egl(oarplayer * oar){

oar_video_render_context *ctx = oar->video_render_ctx;

const EGLint attribs[] = {EGL_SURFACE_TYPE, EGL_WINDOW_BIT, EGL_RENDERABLE_TYPE,

EGL_OPENGL_ES2_BIT, EGL_BLUE_SIZE, 8, EGL_GREEN_SIZE, 8, EGL_RED_SIZE,

8, EGL_ALPHA_SIZE, 8, EGL_DEPTH_SIZE, 0, EGL_STENCIL_SIZE, 0,

EGL_NONE};

EGLint numConfigs;

ctx->display = eglGetDisplay(EGL_DEFAULT_DISPLAY);

EGLint majorVersion, minorVersion;

eglInitialize(ctx->display, &majorVersion, &minorVersion);

eglChooseConfig(ctx->display, attribs, &ctx->config, 1, &numConfigs);

ctx->surface = eglCreateWindowSurface(ctx->display, ctx->config, ctx->window, NULL);

EGLint attrs[] = {EGL_CONTEXT_CLIENT_VERSION, 2, EGL_NONE};

ctx->context = eglCreateContext(ctx->display, ctx->config, NULL, attrs);

EGLint err = eglGetError();

if (err != EGL_SUCCESS) {

LOGE(“egl error”);

}

if (eglMakeCurrent(ctx->display, ctx->surface, ctx->surface, ctx->context) == EGL_FALSE) {

LOGE(“------EGL-FALSE”);

}

eglQuerySurface(ctx->display, ctx->surface, EGL_WIDTH, &ctx->width);

最后说一下我的学习路线

其实很简单就下面这张图,含概了Android所有需要学的知识点,一共8大板块:

  1. 架构师筑基必备技能
  2. Android框架体系架构(高级UI+FrameWork源码)
  3. 360°Androidapp全方位性能调优
  4. 设计思想解读开源框架
  5. NDK模块开发
  6. 移动架构师专题项目实战环节
  7. 移动架构师不可不学习微信小程序
  8. 混合开发的flutter

Android学习的资料

我呢,把上面八大板块的分支都系统的做了一份学习系统的资料和视频,大概就下面这些,我就不全部写出来了,不然太长了影响大家的阅读。

330页PDF Android学习核心笔记(内含上面8大板块)

Android学习的系统对应视频

总结

我希望通过我自己的学习方法来帮助大家去提升技术:

  • 1、多看书、看源码和做项目,平时多种总结

  • 2、不能停留在一些基本api的使用上,应该往更深层次的方向去研究,比如activity、view的内部运行机制,比如Android内存优化,比如aidl,比如JNI等,并不仅仅停留在会用,而要通过阅读源码,理解其实现原理

  • 3、同时对架构是有一定要求的,架构是抽象的,但是设计模式是具体的,所以一定要加强下设计模式的学习

  • 4、android的方向也很多,高级UI,移动架构师,数据结构与算法和音视频FFMpeg解码,如果你对其中一项比较感兴趣,就大胆的进阶吧!

希望大家多多点赞,转发,评论加关注,你们的支持就是我继续下去的动力!加油!

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

ity、view的内部运行机制,比如Android内存优化,比如aidl,比如JNI等,并不仅仅停留在会用,而要通过阅读源码,理解其实现原理

  • 3、同时对架构是有一定要求的,架构是抽象的,但是设计模式是具体的,所以一定要加强下设计模式的学习

  • 4、android的方向也很多,高级UI,移动架构师,数据结构与算法和音视频FFMpeg解码,如果你对其中一项比较感兴趣,就大胆的进阶吧!

希望大家多多点赞,转发,评论加关注,你们的支持就是我继续下去的动力!加油!

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 27
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值