iOS音视频专栏(二)WebRTC音频模块在iOS上的应用

公司的项目是通过WebRTC的APM(Audio Processing Module)模块进行的声音处理(降噪,增益,回声消除等),通过调用audio_device获取设备音频硬件。整套音频处理都是基于WebRTC来实现的。

但是这让我走了很多“路”。包括翻墙下载10个G的源码,编译源码成lib。但是却无法实现创建音频引擎(voiceEngine),创建通道(channel)等。更别提噪音抑制这些了。找了很多资料,根本无从下手。多达10个G的源码也没时间好好研究。

最终,想了一个笨办法,就目前我所了解的,除了这个应该没有更好的办法了。如果你有,请在下方评论区留言,我会非常非常感激你。

因为我们项目需要用到的是WebRTC音频模块。找到WebRTC源码。webrtc->voice_engine->test->auto_test->fakes 中的“conference_transport.h” 。

新建Xcode工程,将“conference_transport.h”中所引用的所有头文件在webrtc中找到,新建文件夹,添加进去。然后是APM模块,这个模块是单纯的声音处理算法模块,耦合程度很小,相对来说好拖多了! (包括.cc,如果是虚函数,需要注意要导入对应的XX_impl.h,XX_impl.cc。)

一个文件一个文件的找,直到所有依赖文件全部添加进去。然后修改头文件路径,当然你也可以修改C++的每个引用头文件。都一样的麻烦。

可能你会解决成百上千个冲突,报错。这会让你崩溃的。反正我就崩溃过,而且我是做过两次这样的事。谁叫我图方便,直接拿服务器那边的webrtc来编译呢。版本太老,导致CPU占用过高,扬声器无法正常播音等各种隐藏大BUG。

网上找了很久很久,只有Stack Overflow上稍微提到点,不过差不多都是Android的编译音频模块,而且是古老的版本,什么单独抽取降噪模块编译,单独抽取增益模块编译这些。吐槽一句,有个卵用。与其单独编译这些,直接编译整个APM模块不是更好吗?或许有人说老版本的webrtc audio_processing是集成在voice_engine中的。那你就直接编译整个voice_engine啊。

在此记录一下,如果有朋友项目也是这种需求。或许能让你有点灵感。如果你有更好的办法,请留言。我们一起讨论。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 11
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值