机器学习
文章平均质量分 63
FXH_94
心之所向 素履以往
展开
-
整理:统计学习-1(续)泛化能力
泛化能力指的是由某学习方法得到的模型对新数据的预测能力。泛化误差是度量这一能力的指标。实际上,泛化误差就是所学到的模型的期望风险,跟上一篇讲到的选择模型时衡量的期望风险一样: f上带个^表示这个f是已经学到的模型。 那么泛化误差的概率上界是什么呢? 假设f是选定的模型函数,R(f)是在训练集上的训练误差期望,R^(f)是在整个概率分布上的样本均值,即在可能的所有数据上产生的误差,原创 2016-03-01 23:37:38 · 1333 阅读 · 0 评论 -
整理:统计学习-1
最近准备把李航的《统计学习方法》这本书学一遍,给机器学习入个门。 第一章已经搞完了,主要的内容就是统计学习的基本概念和理论,搞清楚什么是统计学习。那么什么是统计学习呢,我的理解就是,以数据为基础对象,运用各种统计学习方法构建模型来拟合这些数据,得到的模型能对新的输入数据预测出较为合理的输出,这个模型就是我们想得到的成果。学习的过程就相当于在已知的数据中找规律,所以可以用概率分布来构建模型。 统原创 2016-02-27 23:03:43 · 454 阅读 · 0 评论 -
整理:统计学习-2 感知机知识准备(模型类型、超平面与梯度下降法)
感知机知识储备,判别模型与生成模型,超平面和梯度下降法。原创 2016-03-06 20:36:15 · 669 阅读 · 0 评论 -
感知机Python实现
感知机原始算法的Python实现和动画演示原创 2016-03-20 00:10:42 · 3033 阅读 · 0 评论 -
整理:统计学习-2 感知机
感知机的算法与策略原创 2016-03-08 20:54:46 · 549 阅读 · 0 评论 -
整理:统计学习-1(续)监督学习的重要问题
监督学习可以解决实际中的很多问题,分类、标注与回归。原创 2016-03-02 21:30:21 · 634 阅读 · 0 评论 -
整理:统计学习-3 k近邻法
K近邻法与KD树原创 2016-03-19 11:44:26 · 835 阅读 · 0 评论