机器学习
文章平均质量分 81
小草莓lllll
这个作者很懒,什么都没留下…
展开
-
集成学习入门
集成学习(ensemble learning)可以说是现在非常火爆的机器学习方法了。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都可以看到集成学习的身影。本文就对集成学习的原理做一个总结。 1. 集成学习概述原创 2017-09-11 21:57:01 · 350 阅读 · 0 评论 -
决策树
备注:以下内容大多来自《机器学习实战》以及自己个人的见解,方便记录以及日后巩固学习 决策树简介 决策树的一般流程: 收集数据>准备数据>分析数据>训练算法>测试算法>使用算法 信息增益: 在划分数据集之前之后信息发生的变化成为信息增益,获得信息增益最高的特征就是最好的选择。 熵定义为信息的期望值,符号xix_i的信息定义为:l(xi)=−log2p(xi)l(x_i)=-log_原创 2017-09-12 10:31:32 · 422 阅读 · 0 评论 -
监督学习与非监督学习
在机器学习(Machine learning)领域,主要有三类不同的学习方法: 监督学习(Supervised learning)、 非监督学习(Unsupervised learning)、 半监督学习(Semi-supervised learning), 监督学习:通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,例如分类。 非监督学习:直接转载 2017-09-12 16:02:29 · 25345 阅读 · 0 评论 -
机器学习常见的算法面试题总结
朴素贝叶斯 P(A∩B)=P(A)*P(B|A)=P(B)*P(A|B) 所以有:P(A|B)=P(B|A)*P(A)/P(B) 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待分类项属于哪个类别 工作原理 假设现在有样本x=(a1,a2,a3,…an)这个待分类项(并认为x里面的特征独立) 再假设现在有分类目标Y={y1,y2转载 2017-09-12 21:00:06 · 546 阅读 · 0 评论