【RNNoise】用深度学习抑制噪声

RNNoise: Learning Noise Suppression

原文链接:https://people.xiph.org/~jm/demo/rnnoise/
Banner

上图显示了前后音频(移动鼠标时)噪声抑制的频谱图。

这是RNNoise
该演示介绍了RNNoise项目,显示了如何将深度学习应用于噪声抑制。主要思想是将经典信号处理与深度学习结合起来,创建一个小而快速的实时噪声抑制算法。不需要昂贵的GPU,可以在Raspberry Pi上轻松运行。结果更简单(更容易调谐),听起来比传统的噪音抑制系统更好(已经有!)。


噪声抑制
噪音抑制是言语处理中的一个相当古老的话题,至少可以追溯到70年代。顾名思义,这个想法是采取嘈杂的信号,并尽可能多地消除噪音,同时对感兴趣的言论造成最小的失真。

traditional noise suppression

传统噪音抑制
这是传统噪声抑制算法的概念图。语音活动检测(VAD)模块检测信号何时包含声音以及何时只是噪声。这被噪声谱估计模块用于计算噪声的频谱特性(每个频率多少功率)。然后,知道噪声如何,它可以从输入音频“减去”(不像听起来那么简单)。

从上图看,噪声抑制看起来很简单:只是三个概念上简单的任务,我们完成了,对吧?对与错!任何本科EE学生都可以写一个噪音抑制算法,有时候...有些...困难的部分是使其工作正常,所有的时间,各种噪音。这需要非常仔细地调整算法中的每个旋钮,许多特殊情况用于奇怪的信号和大量的测试。总有一些奇怪的信号会导致问题,需要更多的调优,并且比您修复更容易破解更多的东西。科学50%,艺术50%。我以前在speexdsp库中的噪音抑制器。这有点工作,但不是很好。

深度学习和反复神经网络
深层次学习是一种新思想的新版本:人工神经网络。虽然自六十年代以来一直存在,近年来有什么新的呢?


我们现在知道如何使它们比两个隐藏层更深
我们知道如何使复发网络在过去很长时间记住模式
我们有实际训练他们的计算资源
循环神经网络(RNN)在这里非常重要,因为它们可以对时间序列建模,而不是仅仅考虑输入和输出帧。这对噪声抑制特别重要,因为我们需要时间来获得良好的噪声估计。很长时间以来,RNN的能力受到很大的限制,因为它们长期不能保存信息,并且由于当通过时间反向传播时涉及的梯度下降过程是非常低效的(消失的梯度问题)。这两个问题都通过发明门控单元来解决,如长期记忆(LSTM),门控循环单元(GRU)及其许多变体。



RNNoise使用门控循环单元(GRU),因为它在此任务上执行得比LSTM略好,并且需要更少的资源(CPU和存储器的权重)。与简单的循环单元相比,GRU有两个额外的门。复位门控制状态(存储器)是否用于计算新状态,而更新门控制状态将根据新输入而改变多少。这个更新门(关闭时)使得GRU可以长时间地记住信息(和简单的),这是GRU(和LSTM)比简单的循环单元执行得更好的原因。

recurrent units Comparing a simple recurrent unit with a GRU. The difference lies in the GRU's  r  and  z gates, which make it possible to learn longer-term patterns. Both are soft switches (value between 0 and 1) computed based on the previous state of the whole layer and the inputs, with a sigmoid activation function. When the update gate  z  is on the left, then the state can remain constant over a long period of time — until a condition causes  z  to switch to the right.


经常性单位
将简单的循环单元与GRU进行比较。区别在于GRU的r和z门,这使得有可能学习更长期的模式。两者都是基于整个层的先前状态和输入计算的软开关(0到1之间的值),具有S形激活功能。当更新门z在左边时,状态可以在很长一段时间内保持恒定,直到一个条件使z转向右边。
混合方法
由于深入学习的成功,现在在整个问题中抛出深层神经网络是很受欢迎的。这些方法称为端到端 - 这是神经元一直下降。端对端方法已被应用于语音识别和语音合成一方面,这些端到端系统已经证明了深层神经网络可以有多强大。另一方面,这些系统有时可能是次要的,而且在资源方面是浪费的。例如,噪声抑制的一些方法使用具有数千个神经元和数千万个权重的层来执行噪声抑制。缺点是不仅运行网络的计算成本,还有模型本身的大小,因为您的磁带库现在有数千行代码以及几十兆字节(如果不是更多)的神经元权重。



这就是为什么我们在这里采用不同的方法:保持所有需要的基本信号处理(没有神经网络尝试模拟它),但让神经网络学习所有需要不必要的调整的棘手部分,旁边的信号处理。另一件与现有的深入学习噪音抑制工作不同的是,我们的目标是实时通信而不是语音识别,所以我们不能超过几毫秒(在这种情况下为10毫秒) 。

单位定义问题


为了避免产生大量的输出 - 因此大量的神经元 - 我们决定不直接使用样本或频谱。相反,我们考虑遵循巴克量表的频段,一个与我们感知到的声音相匹配的频率比例。我们使用总共22个频段,而不是480(复杂)频谱值,我们将不得不考虑。

frequency bands
Layout of the Opus bands vs the actual Bark scale. For RNNoise, we use the same base layout as Opus. Since we overlap the bands, the boundaries between the Opus bands become the center of the overlapped RNNoise bands. The bands are wider at higher frequency because the ear has poorer frequency resolution there. At low frequencies, the bands are narrower, but not as narrow as the Bark scale would give because then we would not have enough data to make good estimates

Opus乐队的布局与实际的Bark比例。对于RNNoise,我们使用与Opus相同的基本布局。由于我们与乐队重叠,Opus乐队之间的界限成为重叠的RNNoise乐队的中心。由于耳朵在那里的频率分辨率较差,频段的频率较高。在低频下,乐队更窄,但并不像巴克比例那样窄,因为我们没有足够的数据来做出很好的估计。
当然,我们无法从22个频段的能量重建音频。我们可以做的是计算一个应用于每个频带信号的增益。您可以将其视为使用22频段均衡器,并快速更改每个频段的电平,以便衰减噪声,但让信号通过。


使用每频带增益有几个优点。首先,它使得一个更简单的模型,因为有更少的乐队计算。第二,它不可能产生所谓的音乐噪声伪影,其中只有单个音调在其邻居被衰减的同时才能通过。这些文物在噪音抑制中很常见,相当烦人。要是足够宽阔的乐队,我们要么让整个乐队穿过,要么全部剪下来。第三个优点来自于我们如何优化模型。由于增益总是在0和1之间,所以简单地使用S形激活函数(其输出也在0和1之间)来计算它们确保我们永远不会做一些非常愚蠢的事情,比如添加不在第一名。

对于输出,我们还可以选择整流的线性激活函数来表示在0和无穷大之间的dB的衰减。 为了更好地优化训练中的增益,损失函数是应用于提高到功率α的增益的均方误差(MSE)。 到目前为止,我们发现α= 0.5在感知上产生最好的结果。 使用α→0将等效于最小化对数光谱距离,并且是有问题的,因为最佳增益可以非常接近零。


我们从使用频带获得的较低分辨率的主要缺点是我们没有足够好的分辨率来抑制音调谐波之间的噪声。幸运的是,它不是那么重要,甚至是一个简单的技巧(见下面的音调滤波部分)。


由于我们计算的输出是基于22个频段,所以输入频率分辨率更高是没有意义的,所以我们使用相同的22个频带将频谱信息提供给神经网络。因为音频具有巨大的动态范围,所以计算能量的日志而不是直接馈送能量要好得多。而在我们这样做的时候,它永远不会用DCT来去除相关的特征。所得到的数据是基于Bark量表的倒谱,其与语音识别中非常常用的Mel-Frequency倒谱系数(MFCC)密切相关。


除了我们的倒谱系数,我们还包括:


前6个系数跨帧的第一和第二个导数
音调周期(1 /基频)
6个乐队的音高(声音强度)
一种特殊的非平稳性值,可用于检测语音(但超出本演示范围)
这使得神经网络共有42个输入特征。


深层建筑


我们使用的深层建筑灵感源于传统的噪音抑制方法。大部分工作是由3个GRU层完成的。下图显示了我们用于计算频带增益的层次,以及架构如何映射到噪声抑制中的传统步骤。当然,像神经网络通常情况一样,我们没有实际的证据证明网络正在使用它的层次,而是我们尝试的拓扑结构比其他人更好的事实使得认为它的行为与我们设计的一样它。
network topology

Topology of the neural network used in this project. Each box represents a layer of neurons, with the number of units indicated in parentheses.  Dense layers are fully-connected, non-recurrent layers. One of the outputs of the network is a set of gains to apply at different frequencies. The other output is a voice activity probability, which is not used for noise suppression but is a useful by-product of the network.

这些都是关于数据的
   有时甚至深层神经网络也可能很笨。 他们非常擅长他们所了解的知识,但是他们可能会对他们所知道的投入产生惊人的错误。 更糟糕的是,他们真的很懒惰的学生。 如果他们可以在训练过程中使用任何漏洞,以避免学习困难,那么他们会。 这就是为什么训练数据的质量至关重要。

一个广为流传的故事是,很久以前,一些军队的研究人员正试图训练一个神经网络来识别在树上伪装的坦克。 他们拍摄了有和没有坦克的树木,然后训练了一个神经网络来识别那些有坦克的人。 网络成功超越了预期! 只有一个问题。 由于有坦克的照片是在多云的天气下拍摄的,而没有坦克的照片是在阳光明媚的日子拍摄的,所以网络真正学到的是如何从阳光灿烂的日子开始阴天。 虽然研究人员现在意识到了这个问题,并避免了这样明显的错误,但它们的更微妙的版本仍然会发生(而且在过去已经发生了)。

在噪声抑制的情况下,我们不能仅仅收集可用于监督学习的输入/输出数据,因为我们很少同时获得干净的语音和嘈杂的语音。 相反,我们必须从清晰的语音和噪音的单独记录中人为地创建数据。 棘手的部分是获得各种各样的噪音数据,以增加语音。 我们还必须确保覆盖各种录音条件。 例如,仅在全频段音频(0-20 kHz)下训练的早期版本将在8 kHz低通滤波时失效。

与语音识别常见的不同,我们选择不将倒谱平均归一化应用于我们的特征,并保留代表能量的第一个倒谱系数。 因此,我们必须确保数据包括所有现实级别的音频。 我们还对音频应用随机滤波器,使系统对各种麦克风频率响应(通常由倒谱平均归一化处理)具有鲁棒性。

间距滤波


由于我们的频带的频率分辨率太粗,无法滤除音调谐波之间的噪声,所以我们使用基本的信号处理。 这是混合方式的另一部分。 当有相同变量的多个测量值时,提高精度(降低噪声)的最简单方法就是计算平均值。 显然,只是计算相邻音频样本的平均值不是我们想要的,因为它会导致低通滤波。 然而,当信号是周期性的(例如有声语音)时,我们可以计算由音调周期偏移的采样的平均值。 这导致梳状滤波器,其使音调谐波通过,同时衰减它们之间的频率 - 噪声在哪里。 为了避免信号失真,对于每个频带,梳状滤波器被独立地应用,并且其滤波器强度取决于音调相关性和神经网络计算的频带增益。

我们目前使用FIR滤波器进行音高滤波,但也可以(并在TODO列表中)使用IIR滤波器,如果强度太高,则会导致更高的失真风险,从而产生较大的噪声衰减。

从Python到C


神经网络的所有设计和训练都是使用真棒的Keras深度学习库在Python中完成的。由于Python通常不是实时系统的首选语言,所以我们必须在C中实现运行时代码。幸运的是,运行神经网络比培训一个简单得多,所以我们只需要实现feed前向和GRU层。为了更轻松地将重量适合于合理的占地面积,我们在训练期间将权重的大小限制为+/- 0.5,这使得可以使用8位值轻松存储它们。所得到的模型仅适用于85 kB(而不是将重量存储为32位浮点数所需的340 kB)。


C代码可以使用BSD许可证。尽管在撰写本演示文稿时,代码尚未优化,但它在x86 CPU上的运行速度比实时性要快60倍。它甚至比Raspberry Pi 3上的实时速度快7倍。具有良好的矢量化(SSE / AVX),应该可以使其比现在快四倍。


给我看样品!
好的,这很好,所有,但它实际上是如何发声的?以下是RNNoise的一些实例,可以消除三种不同类型的噪音。在训练期间都不使用噪音和干净的讲话。

Suppression algorithm

 
  • No suppression 
  • RNNoise 
  • Speexdsp

Noise level (SNR)

 
  • 0 dB 
  • 5 dB 
  • 10 dB 
  • 15 dB 
  • 20 dB 
  • Clean

Noise type

 
  • Babble noise 
  • Car noise 
  • Street noise

选择新样本时选择开始播放的位置

Evaluating the effect of RNNoise compared to no suppression and to the Speexdsp noise suppressor. Although the SNRs provided go as low as 0 dB, most applications we are targeting (e.g. WebRTC calls) tend to have SNRs closer to 20 dB than to 0 dB. 

那么你应该听什么呢?听起来很奇怪,你不应该期待着增加清晰度。人类非常善于理解噪音中的语音,增强算法(特别是不允许前瞻性地去除噪声的算法)只能破坏信息。那么为什么我们这样做呢?为了质量增强的言论听起来更不方便,可能导致听众疲劳减轻。


实际上,还有几个实际上可以帮助清晰度的情况。第一种是视频会议,当多个扬声器混合在一起时。对于该应用,噪声抑制可防止所有非活动扬声器的噪声与主动扬声器混合,从而提高质量和可读性。第二种情况是当语音通过低比特率编解码器时。那些倾向于降低嘈杂的语音,而不是干净的语音,所以删除噪音可以使编解码器做得更好。

尝试在你的声音!


对上述样品不满意? 您可以从麦克风实际录制,并使您的音频实时降噪(近)。 如果您点击下面的按钮,RNNoise将在浏览器中执行Javascript中的噪声抑制。 该算法实时运行,但我们有意延迟几秒钟,以便更容易听到去噪输出。 确保戴耳机,否则您会听到反馈回路。 要开始演示,请选择“无抑制”或“RNNoise”。 您可以在两者之间切换以查看抑制的效果。 如果您的输入没有足够的噪音,您可以通过点击“白噪声”按钮人工添加。
把你的噪音捐给科学


如果你认为这项工作是有用的,那么有一个简单的方法来帮助它更好的完成!所需要的只是一分钟的时间。点击下面的链接,让我们从你所在的地方记录一分钟的噪音。该噪声可用于改善神经网络的训练。作为一个副作用,这意味着当您使用它进行视频会议(例如WebRTC)时,网络将会知道您有什么样的噪音,并可能会做得更好。我们对任何可以使用语音进行通信的环境感兴趣。这可以是你的办公室,你的车,在街上,或任何你可以使用你的手机或电脑的地方。


捐一分钟的噪音!


从哪里来
如果您想更多地了解RNNoise的技术细节,请参阅本文(尚未提交)。该代码仍然在积极的开发(没有冻结的API),但已经在应用程序中可用。它目前的目标是VoIP /视频会议应用程序,但通过一些调整,它可能适用于许多其他任务。一个明显的目标是自动语音识别(ASR),虽然我们只能去噪嘈杂的语音并将输出发送到ASR,但这是次优的,因为它丢弃了有关过程的固有不确定性的有用信息。当ASR不仅知道最可能干净的讲话,而且还可以依赖于这一估计值时,这是更有用的。 RNNoise的另一个可能的“重新定位”是为电动乐器创造一个更加智能的噪音门。所有它应该采取的是良好的训练数据和一些代码的变化,将一个Raspberry Pi变成一个真正好的吉他噪音门。任何人我们还没有考虑过许多​​其他潜在的应用程序。


如果您想对此演示进行评论,可以在这里进行。


-Jean-Marc Valin(jmvalin@jmvalin.ca)2017年9月27日
其他资源
代码:RNNoise Git仓库(Github镜像)
J.-M。 Valin,A Hybrid DSP / Deep Learning Approach to Real-time Full-Band Speech Enhancement,arXiv:1709.08243 [cs.SD],2017。
让 - 马克的博文发表评论
致谢
特别感谢Michael Bebenita,Thomas Daede和Yury Delendik的帮助。感谢Reuben Morais对Keras的帮助。



  • 7
    点赞
  • 81
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
2022 / 01/ 30: 新版esptool 刷micropython固件指令不是 esptool.py cmd... 而是 esptool cmd... 即可;另外rshell 在 >= python 3.10 的时候出错解决方法可以查看:  已于2022年发布的: 第二章:修复rshell在python3.10出错 免费内容: https://edu.csdn.net/course/detail/29666 micropython语法和python3一样,编写起来非常方便。如果你快速入门单片机玩物联网而且像轻松实现各种功能,那绝力推荐使用micropython。方便易懂易学。 同时如果你懂C语音,也可以用C写好函数并编译进micropython固件里然后进入micropython调用(非必须)。 能通过WIFI联网(2.1章),也能通过sim卡使用2G/3G/4G/5G联网(4.5章)。 为实现语音控制,本教程会教大家使用tensorflow利用神经网络训练自己的语音模型并应用。为实现通过网页控制,本教程会教大家linux(debian10 nginx->uwsgi->python3->postgresql)网站前后台入门。为记录单片机传输过来的数据, 本教程会教大家入门数据库。  本教程会通过通俗易懂的比喻来讲解各种原理与思路,并手把手编写程序来实现各项功能。 本教程micropython版本是 2019年6月发布的1.11; 更多内容请看视频列表。  学习这门课程之前你需要至少掌握: 1: python3基础(变量, 循环, 函数, 常用库, 常用方法)。 本视频使用到的零件与淘宝上大致价格:     1: 超声波传感器(3)     2: MAX9814麦克风放大模块(8)     3: DHT22(15)     4: LED(0.1)     5: 8路5V低电平触发继电器(12)     6: HX1838红外接收模块(2)     7:红外发射管(0.1),HX1838红外接收板(1)     other: 电表, 排线, 面包板(2)*2,ESP32(28)  
Python rnnoise 是一个用于语音降噪的 Python 库。rnnoise 的全称是 Recurrent Neural network for noise reduction,它基于递归神经网络的原理来实现语音信号的降噪。通过 rnnoise,我们可以对含有噪音的语音进行处理,使其变得更加清晰,更容易理解。 rnnoise 的工作原理是通过训练大量的噪音和干净语音对来构建降噪模型。模型输入的是包含噪音的语音信号,输出则是降噪后的语音信号。通过训练,模型可以学习到如何从噪音信号中分离出干净的语音信号。当使用 rnnoise 处理新的语音数据时,模型会根据训练得到的经验对语音进行降噪处理。 在 Python 中使用 rnnoise,我们需要导入相应的库文件,并使用合适的语音数据作为输入。首先,我们需要将输入的语音信号转换为适当的格式,例如使用 numpy 将其表示为数组。然后,我们可以使用 rnnoise 提供的降噪函数来对语音信号进行处理。最后,我们可以将降噪后的语音信号保存到文件中或进行其他后续操作。 Python rnnoise 的优点之一是其易用性。由于 rnnoise 封装在一个 Python 库中,我们可以在 Python 环境中直接调用相应的函数进行降噪处理,而无需编写大量的代码。此外,Python 还提供了丰富的科学计算和信号处理库,可以方便地与 rnnoise 结合使用。 综上所述,Python rnnoise 是一个用于语音降噪的方便易用的 Python 库,通过使用递归神经网络来实现语音信号的降噪处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值