![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 93
林林宋
不要急,不要慌,知识总是一点点积累起来的
展开
-
CRF条件随机场
解决序列预测问题。比如TTS的前端分词,实体命名识别等。原创 2022-11-21 23:43:54 · 476 阅读 · 0 评论 -
生成模型 GAN和VAE
gan的原理及其变种原创 2022-09-01 14:30:10 · 1402 阅读 · 0 评论 -
机器学习基础算法
文章目录KNN k最近邻k-means聚类EM算法PCA主成分分析t-sneKNN k最近邻K Nearest Neighbors,属于有监督学习中的分类算法,和k-means不一样(无监督学习的分类)。原理:当预测一个新的值x的时候,根据它距离最近的K个点是什么类别来判断x属于哪个类别。主要有两个,K值的选取和点距离的计算。举例说明:如上图所示,绿色的点是我们需要预测分类的点,当k=3时,绿色点距离最近的三个点,两个蓝色三角,一个红色圆,遵循少数服从多数的原则,绿色点应归类为蓝色三角的类别。但原创 2022-03-28 20:05:49 · 175 阅读 · 0 评论 -
爬山算法和退火算法
爬山算法是一个贪心算法,每次从临近空间中找到一个最优解,然后更新,因此最后可能达到一个局部最优解。退火算法:来源于金属冶金中的先加热再降温,每次找到一个临近空间的最优解,并且给一定的概率可以跳出这个最优解,因此可能会跳出局部最优解从而达到最终的全局最优解。这个概率会随着时间的增加递减,以保证最后的稳定性。参考:http://www.cnblogs.com/heaad/archive/2...原创 2019-01-03 17:06:03 · 651 阅读 · 0 评论 -
极大似然估计
1.极大似然估计(1)如果已知,X未知,是求概率(2)如果X已知,未知是求似然---在已经知道结果的情况下,调整模型参数,使得在某个参数下出现这个结果的概率最大极大似然--就是在给定参数(x1,x2,x3....)的情况下,求()的组合使得出现x组合的概率最大前提:所有的采样都是独立同分布举例来说:假设有一个造币厂生产某种硬币,现在我们拿到了一枚这种硬币,想试试这硬币 是...原创 2019-01-25 15:08:04 · 434 阅读 · 0 评论 -
监督学习、无监督学习、弱监督学习、半监督学习、强化学习概念
监督学习训练集的数据都是有标签的数据,在输入数据时,我们知道这个数据对应的输出,模型不断的建模数据输入和输出之间的关系。不断的调整模型,缩小与真实输出的loss,直到输入输出一致。比如已知一些图片是猫,一些图片不是猫,那么训练一个算法,当一个新的图片输入算法的时候算法告诉我们这张图片是不是猫。分类问题:输入x,如果输出 y是连续值,例如预测房价回归问题:输入x,输出 y是确定值,例...原创 2019-01-11 19:28:43 · 2979 阅读 · 2 评论 -
吴恩达 --机器学习01
监督学习 vs 无监督学习以预测房价为例,给定面积x1、卧室数目x2 等若干相关因素 ,以及这套房子的价格y构建函数描述输入xi的集合和y的最终关系,为了指导权重的变化,使得预测值和真实值之间的差距尽可能 的缩小,构建的函数与真实值作差,求 L1 loss或L2 loss。...原创 2019-05-05 23:19:26 · 128 阅读 · 0 评论 -
支持向量机SVM
基本模型是定义在特征空间上的间隔最大的线性分类器模型从简单到复杂可以分为三种1.线性可分SVM是指当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习线性分类,又称为硬间隔支持向量机2.线性支持SVM是指当训练数据接近线性可分时,通过软间隔最大化(soft margin maximization),学习线性分类,又称为软间隔支持向量机...原创 2019-04-30 17:31:32 · 104 阅读 · 0 评论 -
PLDA
PLDA(Probabilistic Linear Discriminant Analysis)是一种信道补偿算法,认为ivector中既有说话人信息,又有channel信息,想要滤去channel信息(信道),需要对信道进行补偿。ref:《Probabilistic Linear Discriminant Analysis for Inferences About Identity》其中提...原创 2019-06-04 21:08:45 · 1243 阅读 · 0 评论