算法学习
文章平均质量分 50
韬光养晦气
这个作者很懒,什么都没留下…
展开
-
语音算法笔记(5)——语音识别应用系统的搭建
声明:本专栏文章为深蓝学院《语音算法:前沿与应用》课程个人学习笔记,更多学习资源请咨询深蓝学院相关课程。语音识别场景:offline整句识别、streaming识别嵌入式语音识别、云端语音识别解码器把语音特征转换为文本Input:语音信号特征、声学模块、语言模型Output:语音对应的文本结果假设核心:利用输入构建搜索空间,使用搜索算法得到最优结果。其中重要的是:什么样的搜索空间,什么搜索算法?动态解码器(HDecoder)其中,sp代表句中的停顿。(原创 2020-08-12 10:38:49 · 660 阅读 · 0 评论 -
语音算法笔记(4)——语音识别前沿课题
声明:本专栏文章为深蓝学院《语音算法:前沿与应用》课程个人学习笔记,更多学习资源请咨询深蓝学院相关课程。远场语音识别siri(2011):近场语音识别echo(亚马逊,2014):远场语音识别当说话人和麦克风相离3-5米时,可以认为是远场语音识别。困难:1.背景噪声 2.扬声器音乐干扰 3.麦克风灵敏度 4.墙面折射声波 5.声波漫射解决方法:1.数据增强——加混响(卷积)、加噪声(时域叠加,调节噪声能量,控制信噪比)、音量扰动(训练数据音量随机放大或缩小)、速度扰动(改变速度t原创 2020-07-26 20:21:36 · 1037 阅读 · 0 评论 -
语音算法笔记(3)——从序列建模的角度理解ASR
声明:本专栏文章为深蓝学院《语音算法:前沿与应用》课程个人学习笔记,更多学习资源请咨询深蓝学院相关课程。ASR中的序列模型seq to seq任务的输入输出应当是不同长度,否则可以把每一个时刻的任务都认为是静态分类任务。可以将许多OCR(手写字体识别)和SMT(机器翻译)算法借鉴过来,因为本质上都是sequence模型。Attention/Transformer based ASR模型框架:input->encoder->context->decoder->out原创 2020-07-25 21:13:40 · 597 阅读 · 0 评论 -
语音算法笔记(2)——从GMM-HMM到端对端
语音算法目标给定语音特征,找到最有可能的文字序列,X:语音特征序列, W:文字序列,可用贝叶斯公式描述:语音识别系统输入语音信号,经过特征提取模块,得到整个系统输入的语音特征(也可以直接用waveform做算法的输入)。之后将特征输入decoder模块。decoder模块包含语言模型、声学模型和dictionary(发音词典),其中dictionary可以做为语言模型和声学模型的桥梁,当两者采用不同的建模单元时(词、声韵母),可以通过dictionary实现映射。语言模型对词序列本身原创 2020-07-19 00:53:20 · 593 阅读 · 0 评论 -
语音算法笔记(1)——基于深度学习的语音算法综述
发展历史:机器阶段Wolfgang von Kempelen‘s speaking machine 发声机器(语音合成 Mama Papa Haha)Thomas Edison's 留声机Radio Rex玩具 用户喊Rex,小狗从房子里出来 (语音唤醒,工作原理:电磁铁对500hz频率敏感,Rex词接近500hz)模型阶段——更加科学、系统应用阶段...原创 2020-07-16 20:37:15 · 1567 阅读 · 0 评论 -
算法笔记之随机森林
随机森林的生成方法:1.从样本集中通过重采样的方式产生n个样本2.假设样本特征数目为a,对n个样本选择a中的k个特征,用建立决策树的方式获得最佳分割点3.重复m次,产生m棵决策树4.多数投票机制来进行预测(需要注意的一点是,这里m是指循环的次数,n是指样本的数目,n个样本构成训练的样本集,而m次循环中又会产生m个这样的样本集)总结:属于集成学习中的Bagging(多个相同基模型),产生n个样本的步转载 2018-01-19 15:12:19 · 644 阅读 · 0 评论 -
集成学习知识点整理
集成学习:把大大小小的多种算法融合在一起,共同协作来解决一个问题。这些算法可以是不同的算法,也可以是相同的算法。分类:依据集成思想的架构分为 Bagging ,Boosting, Stacking三种。分别总结一下:Bagging:从训练集从进行子抽样组成每个基模型所需要的子训练集,对所有基模型预测的结果进行综合产生最终的预测结果。Boosting:训练过程为阶梯状,基模型按次序一一进行训练(实现转载 2018-01-19 11:22:33 · 341 阅读 · 0 评论 -
算法笔记之GD,BGD,SGD
在讨论GBDT前,先来看看什么是GD,BGD和SGDGD(Gradient Descent,梯度下降):求损失函数最小值:梯度下降;求损失函数最大值:梯度上升。假设线性模型:其中θ是参数。损失函数为:那么每次GD的更新算法为:BGD(Batch Gradient Descent,批量梯度下降):在更新参数时使用所有的样本来进行更新。S转载 2018-01-24 14:59:00 · 19715 阅读 · 1 评论 -
自步学习(Self-paced Learning)
这篇文章旨在介绍自步学习的基本概念及最基础的算法原理。我们先看自步学习的定义,在了解自步学习之前,有必要看一看什么是课程学习:-2009年Bengio教授在ICML上提出课程学习。-课程学习是通过模拟人的认知机理,首先学习简单的、普适性的知识结构,然后逐渐增加难度,过渡到学习更复杂、更专业化的知识。而自步学习在课程学习上进行了改进:-Koller教授在2010年NIPS上给出了自步学习的数学表达。...原创 2018-01-23 22:12:44 · 29118 阅读 · 17 评论