语音对于人机交互的重要性毋庸置疑,无论是国内外企业,都在 语音识别 的速度、准确度以及多语种方面持续创新,但是当机器面对那些有 口音 的人来说,似乎就没有那么灵敏了:不仅注意力会不集中,反应迟钝,甚至还会成为一个独立的个体,不予任何回应。如何解决口音识别问题,已成为智能语音下一阶段的竞争焦点,但这不仅仅是单纯的增加语料库就能提升的,好在已经有少数公司,开始通过构建新的语音模型,来解决口音问题。
自IBM的Shoebox与Worlds of Wonders的Julie Doll问世以来,语音识别技术已经取得了长足进步。甚至有报道称,到2018年底,谷歌Google Assistant将支持超过30种语言。除此以外,高通已经开发出了一款能够识别单词和短语的语音识别设备,准确率高达95%。而微软也不甘示弱,其呼叫中心解决方案(智能语音客服)比人工展开的呼叫服务更准确,更高效。
但需要注意的是,尽管在机器学习的加持下,语音识别技术取得了巨大的进步,但现在的语音识别系统还是不完美的。比如,不同地区的口音,让这项技术拥有了很强的“地域歧视性”。通常情况下,口音对人类来说不是什么大问题,有时还会让人感觉到一种异国风情的魅力,但是对机器而言,这是一条难以跨越的鸿沟,可能是其发展过程中面临的最大挑战。
研究显示口音是语音识别技术的挑战之一
最近,华盛顿邮报与Globalme和Pulse Labs两家语言研究