机器学习
文章平均质量分 82
午匀需
这个作者很懒,什么都没留下…
展开
-
主成分分析PCA & 奇异值分解SVD
一 特征值和特征向量 想了解PCA和SVD,首先要了解的一个概念就是特征值和特征向量。 A是矩阵,x是向量、是数。如果满足公式,则说是矩阵A的一个特征值,非零向量x为矩阵A的属于特征值的特征向量。矩阵A的特征值和特征向量可以写成以下格式,请注意。 为什么能把x叫做A矩阵的特征向量呢,其实矩阵乘向量可以理解成对向量进行旋转和拉长。当然并不是所有向量都可以被旋转,矩阵无法旋转的非...原创 2018-09-12 17:05:34 · 654 阅读 · 0 评论 -
最大熵模型
一 信息熵 1.自信息 i = -log(p(x)) 某件事发生的概率越大,富含信息越少。例如明天太阳从东边出来这句话的有用的信息其实是很少的,但是明天要下雨这句话富含的信息就比前一句话多了。p(下雨)<p(太阳从东边出来) 2.熵 自信息的期望 3.条件熵 其实还有互信息,平均互信息,交叉熵等等的概念,这里就不介绍了,以后会专门写一篇关于信息熵的。 二最大熵值模型 ...原创 2018-09-18 16:44:52 · 178 阅读 · 0 评论 -
聚类算法(1)
一 聚类算法简介 1.聚类和分类的区别 聚类 - 利用算法将相似或者相近的样本聚成一簇,这些样本都是无标签的,是一种无监督学习算法。 分类 - 首先需要从有标签样本学习出打标签逻辑,再利用学习出的逻辑对无标签样本进行分类,是一种有监督学习算法。 2.聚类的使用 聚类算法可以帮助我们认识数据,比如一批新闻文本,通过几次聚类的尝试,你可能就会知道这一批新闻文本主要分类几个类别。 聚类算...原创 2018-10-09 09:54:25 · 910 阅读 · 0 评论 -
Python自然语言处理—朴素贝叶斯
一贝叶斯公式 公式很好理解,当我们相求已知状态X下打上ý标签的概率的时候,可以将问题分以下三个问题 1,求标签ÿ下X状态的概率 2,求标签ÿ的概率 3,求X状态的概率 以上三个问题可以简单的统计已知样本就可以获取得到,这个工作是可以大规模并行处理的。 我们再数学一点的解释一下,当我们想求的后验概率的时候-P(Y | X),可以先获取它的先验概率P(Y),再通过已有样本计算出调整因子...原创 2018-11-28 14:40:00 · 1015 阅读 · 0 评论