机器学习
文章平均质量分 76
阿拉灯神阿丁
这个作者很懒,什么都没留下…
展开
-
机器学习——推荐系统 知识点总结
一、什么是推荐系统?概念:一种自动化的工具,可以分析你的历史兴趣,从庞大的库中推荐出喜欢的物品。基本任务:联系用户和物品,解决信息过载的问题。诞生:早在很多年前,科学家门就提出了很多解决方案,代表性的就是分类目录和搜索引擎。雅虎,谷歌。其中分类目录网站:能方便用户根据类别查找网站,但是只能覆盖少量的热门网站,越来越不能满足客户的需求。因此,搜索引擎诞生了。可以让用户根据搜索关键词来找到原创 2017-07-12 20:26:22 · 3081 阅读 · 0 评论 -
机器学习——贝叶斯朴素贝叶斯 知识点与面试总结
贝叶斯判定准则:为最小化总体风险,只需在每个样本上选择能使条件风险R(c|x)最小的类别标记: /-------------------------------极大似然估计---------------------------------/估计类的常用策略:先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计。即概率模型的训练过程就是参数估计过程。参数估计两大学派原创 2017-07-12 20:18:29 · 6988 阅读 · 1 评论 -
机器学习——EM算法 知识点与面试总结
提出:有时候任务中含有一些不能观察到的隐含变量,样本的产生和隐含变量有关,而求模型的参数时一般用最大似然估计,由于隐变量的存在,所以对似然函数参数求导是求不出来的,这时采用EM算法来求导。总结:是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计。两个步骤交替计算:E步:利用当前估计的参数值,求出在该参数下隐含变量的条件概率值(计算对数似然的期望值);M步:结合E步求出的隐含变量原创 2017-07-12 20:09:13 · 7423 阅读 · 0 评论 -
机器学习——boosting 与 bagging 知识点+面试题总结
一、boosting与bagging:(1)bagging:从原始数据中随机抽样得到多个同样大小的数据集,来训练多个基学习 器,各学习器之间互不依赖。是一种并行的方法。各分类器的权重都是相等的。(抽样方法为有放回的抽样:允许每个小数据集中可以有重复的值。)(2)boosting:用所有的数据去训练基学习器,个体学习器之间存在依赖关系,每一个学习器都是基于之前训练的学习器的结果,集中原创 2017-06-27 10:33:11 · 6238 阅读 · 0 评论 -
机器学习——生成模型与判别模型 知识点总结
通俗的解释:1)生成模型:(先对数据的联合分布建模,再通过贝叶斯公式计算样本属于各个类别的后验概率)由数据学习联合概率p(x,y),然后求出后验概率p(y|x)作为预测的模型,即:P(y|x)=p(x,y)/p(x)。特点:可以从统计的角度表示数据的分布情况,能反映同类数据本身的相似度。但不关心各类的边界在哪。学习收敛速度更快。存在隐变量时,仍适用。2)判别模型:(直接原创 2017-06-27 10:40:10 · 2129 阅读 · 1 评论