MIT又出新玩法,利用AI可轻松分离视频中的乐器声音

640?wx_fmt=gif

本文由人工智能观察编译

译者:Sandy

均衡器是大概是被用来在音乐中加入低音的一种常用方式,但近日,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员研发了一个更好的解决方案。他们的深度学习系统——PixelPlayer——可以通过人工智能来分离乐器演奏视频中的乐器声音,同时还能改变音量,让它们变得更响亮或更柔和。

 

经过充分训练的PixelPlayer系统,以视频作为输入,可以对相应的音频进行分割,识别声音来源,然后根据每个像素的声音进行“空间定位”,即识别剪辑片段中产生类似声波的区域。详细信息在论文《The Sound of Pixels》中有所解释,这篇论文已被欧洲计算机视觉大会(ECCV)接收,此会议将于今年9月在德国慕尼黑举行。

 

“我们期望中最好的情况是系统可以识别出哪种乐器会发出哪种声音,”CSAIL的博士生和该论文的共同作者Hang Zhao说道。“结果我们惊讶的发现,真的可以在像素级别上对乐器进行空间定位。这一结果给我们开辟了更多的可能性,比如只需点击一下视频就能编辑各个乐器的音频。“

640?wx_fmt=gif

PixelPlayer的核心是一个在现有音乐视频(一个由YouTube提供的714个未经修改的且未标记的数据视频集)上进行训练的神经网络。据悉,该系统在超过60个小时的视频上进行了训练,它能够观看之前未看过的音乐表演视频,在像素级别上识别特定乐器,并提取出该乐器的声音。

 

这只是PixelPlayer多管齐下机器学习框架的一部分。经过训练的视频分析算法从剪辑的帧中提取视觉特征之后,第二个神经网络——音频分析网络, 将声音分成小片段并从中提取特征。最后,一个音频合成器网络使用来自两个网络的输出来将特定像素与声波进行关联。

 

PixelPlayer完全是自我监督的,这意味着它不需要人类对乐器或乐器声音进行任何标注。现在这一系统可以识别超过20种乐器的声音。Zhao称,如果具备更多训练数据,该系统还可以识别更多乐器,不过,它在处理乐器子类别之间的细微差异时可能还存在问题,比如中音萨克斯和次中音萨克斯。

 

研究人员认为PixelPlayer可以帮助进行声音编辑,或者用于帮助机器人更好地理解动物、车辆和其他物体所产生的环境声音。

 

他们写道:“我们希望我们的工作可以开辟新的研究途径,通过视觉和听觉信号来理解声源分离的问题。”

(文中图片来自网络)

640?wx_fmt=png

投稿、约访、合作,联系邮箱aiobservation@qq.com

添加微信aixiaozhijun,更多交流或进AI观察团

640?wx_fmt=gif
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值