机器学习
文章平均质量分 57
v-space
语音识别、声纹识别、语音唤醒
展开
-
机器学习学习笔记-持续学习(Continual Learning/ Life-long Learning)
任务:将旧任务学习的知识应用到新的任务上,同时在旧任务上的表现不会出现太大的损失。问题:(1)将旧任务的知识利用,从而更快适应新任务。(2)在学习新任务的同时在旧任务上的表现不会出现太大下降。两个任务的关系:(1)新旧任务目标一致,但数据分布不同。如:普通话的语音识别和方言的语音识别,建模单元是一样的,输入的特征空间分布会不同。(2)新旧任务目标不一致,但相似。如:普通话的语音识别和英语语音识别,建模单元不一样,输入的特征空间分布也不同,但都是语音识别任务。(3)新旧任务目标不相似。如原创 2022-01-16 10:27:07 · 3717 阅读 · 0 评论 -
概率模型和统计模型区别
概率模型: 由(Ω,F,P)(\Omega,F,P)(Ω,F,P)组成,其中Ω\OmegaΩ为随机变量X的采样空间、FFF为分布律,PPP为FFF上的概率测度。f(x)=P(X≤x)=P(ω∈Ω,X(ω)≤x)=∫−∞xF(x)dxf(x)=P(X \le x)=P(\omega \in \Omega,X(\omega) \le x)=\displaystyle \int^{x}_{-\infty}{F(x)dx}f(x)=P(X≤x)=P(ω∈Ω,X(ω)≤x)=∫−∞xF(x)dx其中fff为累计原创 2020-05-18 11:20:32 · 1985 阅读 · 1 评论 -
机器学习基础之EM算法
一、算法简介EM算法: 期望最大化 算法(Expectation-maximization algorithm)。为解决数据缺失情况下参数估计问题。是一种常见的隐变量估计方法,也是一种迭代优化算法。由于模型依赖于未知的隐变量,但是需要估计模型的参数。步骤:E过程(期望计算过程):根据现有模型,计算各个观测数据输入到模型中的计算结果。M过程(最大化过程):重新计算模型参数以最大化期望值。二、算法详细过程2.1 预备知识:极大似然估计、Jessen不等式2.1.1 极大似然估计已知未知原创 2020-05-17 16:19:32 · 1060 阅读 · 0 评论 -
交叉熵损失怎么来的
引言:信息是用来消除随机不确定的东西 —— 香农1.信息熵减少不确定性越大、信息量越大。信息量大小与信息发生的概率成反比。信息量:事件x的信息量:I(x)=−ln(p(x))(p(x)为事件x的发生概率)(1)I(x)=-ln(p(x))\qquad(p(x)为事件x的发生概率)\qquad(1)I(x)=−ln(p(x))(p(x)为事件x的发生概率)(1)信息熵:所有信息量的期望...原创 2020-04-25 12:30:37 · 184 阅读 · 1 评论