人工智能
hang__19
这个作者很懒,什么都没留下…
展开
-
CTC & 语音基础 & GMM & EM
Connectionist Temporal Classification (CTC)算法解释https://www.jianshu.com/p/0cca89f64987语音中响度,音调与音色的影响因素https://blog.csdn.net/qq_37385726/article/details/89176142GMM模型与EM算法https://blog.csdn.net...原创 2019-11-06 16:48:32 · 355 阅读 · 0 评论 -
经典语音论文
经典语音论文:语音合成,语音识别 为主https://github.com/zzw922cn/awesome-speech-recognition-speech-synthesis-papers原创 2019-11-06 12:50:00 · 337 阅读 · 0 评论 -
语音之特征参数提取
https://blog.csdn.net/w_manhong/article/details/78977833线性预测分析(LinearPredictionCoefficients,LPC)感知线性预测系数(PerceptualLinearPredictive,PLP)Tandem特征和Bottleneck特征基于滤波器组的Fbank特征(Filterbank)线性预测...转载 2019-10-31 16:28:22 · 464 阅读 · 0 评论 -
机器学习中的熵、条件熵、相对熵和交叉熵(为何使用交叉熵作为损失函数)
信息熵,条件熵,相对熵,交叉熵的定义与意义:https://blog.csdn.net/u013569304/article/details/82595548数据压缩与信息熵:http://www.ruanyifeng.com/blog/2014/09/information-entropy.html...转载 2019-08-18 13:56:47 · 164 阅读 · 0 评论 -
数据集总结
包含图像语音数据集及项目总结:https://www.jianshu.com/p/d0baf4326ff2各种免费的数据集:https://www.cnblogs.com/genghenggao/p/9625450.html转载 2019-08-13 13:33:29 · 665 阅读 · 0 评论 -
语音识别学习日志 2019-7-17 语音识别基础知识准备6 {维特比算法(Viterbi Algorithm)}
HMM 维特比算法(Viterbi Algorithm)详细解释参考:http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-1http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-2http://www.52nlp.cn/hmm-l...转载 2019-07-17 20:58:56 · 419 阅读 · 0 评论 -
语音识别学习日志 2019-7-16 语音识别基础知识准备5 {决策树算法(ID3、 C4.5、 CART)}
决策树算法(ID3、 C4.5、 CART)决策树的定义决策树学习采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一颗熵值下降最快的树,到叶子节点处,熵值为0。其具有可读性、分类速度快的优点,是一种有监督学习。决策树呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型;预测时,对新的数据,利用决策模型进行分类。...转载 2019-07-16 16:41:01 · 521 阅读 · 0 评论 -
语音识别学习日志 2019-7-15 语音识别基础知识准备4 {Baun-Welch算法}
HMM 前向算法(Forward Algorithm)详细解释参考:http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-1http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-2http://www.52nlp.cn/hmm...转载 2019-07-15 20:05:03 · 298 阅读 · 0 评论 -
语音识别学习日志 2019-7-14 语音识别基础知识准备3 {Kmean算法分析与HMM(Hidden Markov Model)模型}
Kmean算法聚类算法对于"监督学习"(supervised learning),其训练样本是带有标记信息的,并且监督学习的目的是:对带有标记的数据集进行模型学习,从而便于对新的样本进行分类。而在“无监督学习”(unsupervised learning)中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。对于无监督学习,...转载 2019-07-14 16:46:53 · 484 阅读 · 0 评论 -
语音识别学习日志 2019-7-13 语音识别基础知识准备 1{语音基础知识}
线性预测线性预测(linear prediction)根据随机信号过去的p个已知抽样值序列为Sn-1,Sn-2,…Sn-p,预测现时样值Sn的估计值的方法。预测公式是一个线性方程,所以这种预测称为线性预测。声音的构成声音频率决定音调;声音振幅决定大小;声音谐波决定音色。之所以能分辨出不同乐器和不同人,只因为声音中谐波成份不同。音强声音的强度是一个客观的物理量,...原创 2019-07-13 20:22:19 · 703 阅读 · 0 评论 -
CNN(Convolutional Neural Network) 的基础
卷积神经网络(Convolutional Neural Network,简称CNN),是一种前馈神经网络,人工神经元可以响应周围单元,可以进行大型图像处理。卷积神经网络包括卷积层和池化层。卷积神经网络是受到生物思考方式启发的MLPs(多层感知器),它有着不同的类别层次,并且各层的工作方式和作用也不同。CNN网络结构如图所示,CNN网络工作时,会伴随着卷积并且不断转换着这些卷积。学...转载 2019-07-10 00:02:01 · 563 阅读 · 0 评论 -
机器学习名词解释
1. 损失函数损失函数是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。经验风险:一个损失函数的函数结构风险:可简单理解为经验风险(一种损失函数的函数)+λ正则化项。模型的结构风险函数包括了经验风险项和正则项,通常可以表示...原创 2019-07-09 21:21:38 · 1550 阅读 · 0 评论