AI落地虽千万难,智能语音往矣 | CCF-GAIR 2020

2020-07-24 21:23:37

在1968年上映的科幻电影《2001:太空漫游》中,宇宙飞船的智能控制系统HAL-9000与宇航员能进行很智能的对话,当年这一幻想如今已成为现实。

AI落地虽千万难,智能语音往矣 | CCF-GAIR 2020

其实早在“人工智能”一词出现之前,就有人试图制造能听会说的机器,这背后的追求就是今天我们所熟知的智能语音。

然而历史上一项技术的发展往往都是屡遭曲折的,语音技术也不除外。

1

 

语音之难,难于上青天

语音技术的起源可以追溯到爱迪生发明留声机和贝尔发明电话。从这一时刻起,语音正式成为了一种可以被人为制造并物有效存储、传输的信号。

19世纪60年代声源-滤波器模型被提出,而在此后的几十年中,语音研究的基本概念没有突破。

这时不少美国学者认为实现语音识别恐怕要比登月还难,随后1969年随着阿波罗11号的登月,语音难于上终于成为了事实,语音识别与合成研究也遭遇了长时间的低谷。

2

 

统计才露尖尖角

随着计算机技术与人工智能技术的兴起,智能语音技术在20世纪80年代后成为热点,这个时候语音研究的最大突破,来自于李开复的导师、卡内基梅隆大学教授Raj Reddy用专家系统的方式做语音识别系统。

1988年,在导师Raj Reddy的支持下,李开复用统计方法来解决语音识别的难题并在博士论文中提出了世界上第一个“非特定人连续语音识别系统”,这一成果使得统计学方法在语音识别领域展露头角并逐渐代替之前的模型,同时它也推动了隐马尔可夫模型(HMM)在语音识别领域的进一步研究。

3

 

深度学习力挽狂澜

神经网络在1980年代中期到1990年代的二次复兴,使得研究者们开始探索将神经网络运用于语音识别研究之中。

但早期的神经网络的识别结果并不比GMM-HMM好,在很多人都放弃的时候,邓力却看好神经网络,2010年左右,邓力和俞栋将前馈神经网络引入到声学模型建模中并取得了很好的效果。

2010年10月,俞栋分享了使用深度神经网络和senones建模的相关研究的成果。这一技术之后在2012被微软在一次会议上当场演示英文语音识别之后合成中文语音——整场演示非常成功,引起了产业界的轰动,也揭开了语音产业应用的新一页。

4

 

智能语音蓝海已来

2008年,科大讯飞凭借领先的语音技术上市。

2010年,百度加入语音江湖,并于当年10月在掌上百度上推出语音搜索。

2010年前后,AI初创公司思必驰、云之声和出门问问等加入语音产业。

2014年之后,阿里、京东、腾讯等巨头成为新一波语音产业的助推者,相继从智能音箱、智能手表、车载语音设备等领域切入智能语音市场,自此智能语音时代蓝海已来。

其实,智能语音到来的背后是以深度学习为代表的整个AI蓝海时代的到来。人们这几年见证了层出不穷的模型、被刷爆的各大榜单,然而人们同时也见证了理性市场下AI落地之难。

以智能音箱为例,它在始推出之际确实很受人欢迎,但是这两年人们渐渐恢复理智,早已不是当年被AlphaGo震撼和痴迷的模样。于此同时,市面上的智能音箱却没有给人更多的惊喜。智能音箱同质化严重,人们很难区分各个音箱有何差别,也很难识别音箱的“智能”程度有几分;往往一时心动买来的音箱在满足几天好奇心之后只能作为“音箱”来听歌,甚至几个月后被人遗忘在角落。

我们不禁要问一句,AI落地真的很难吗?

正如吴恩达所言:AI是新的电力(AI is the new electricity)。作为推动未来世界生产力的基础设施,只有将其置于各种具体场景中,才能发挥最大化的价值。

AI落地难,除了AI技术水平本身的限制外,更多的还是在于具体场景的结合上需要更多的试错,以及如何弥补于大众认识间的误差。打个比方,现在AI的落地正如一百多年前的前汽车时代,当亨利·福特想要造出更好的车,而大众想要的却是“一匹更快的马”。

AI落地不难,今年上半年,一场疫情突如袭来。在疫情之中,无接触服务被迫切需要,智能语音也因此诞生了不少创新应用。如全程实现无接触、无障碍的智能语音电梯,人们通过语音操作就可以方便快捷地操作电梯完成“上行下行”、“到达指定楼层”等全部乘梯操作,有效减少了交叉感染,间接遏制了疫情蔓延。

当然,要让AI、智能语音走入更多的场景,我们要做的还更多。

5

 

智能语音助力AI落地

语音说到底是一种交互方式,就像键盘、鼠标、和触摸屏,语音正在成为下一代人机交互的方式。

智能语音技术是人工智能产业链上的关键一环,是AI落地的一个重要场景。

智能家居是AI落地的完美场景,而语音交互技术则是智能家居应用中的刚需,同时智能音箱又是语音交互技术的载体。

那么我们该如何提高智能音箱的智能化和人性化,如何让语音技术点亮智能家居 ,让智能家居助力美好生活 ,让美好生活和每个人息息相关?

我们在畅想智能家居的同时又该如何更好地用技术实现智慧教育、智慧交通、智慧医疗、智慧社区,让AI落地遍及方方面面?

这一切都可以在今年CCF-GIAR前沿语音技术专场上找到答案。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值