![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
专业书籍
xc_bnu
这个作者很懒,什么都没留下…
展开
-
第2章 感知机
2.1 感知机模型:f(x)=sign(w*x+b) w*x+b=0 超平面2.2 学习策略目的:找出无穷多个超平面中的一个能线性可分的超平面,即模型f(x)=sign(w*x+b)经验风险:误分类的数据 min L(w,b)=−∑xiϵMyi(w∗x0+b)2.3 学习算法目的:提供算法求出使损失函数极小时的w、b,及确定感知机模型算法:...原创 2018-07-10 14:07:50 · 156 阅读 · 0 评论 -
第3章 k近邻法
3.1 k近邻算法简单而言:与x最邻近第k个点,在这k个点中找出最多个数点,则x属于最多点属于的类3.2 k近邻模型1)k值的选择 一般选一个比较小的数值,通常采用交叉验证法选取最优k值2)分类决策规则 多数表决规则,等价于经验风险最小化3.3 k近邻法的实现:kd树1)构造kd树 见例3.2:选择维度分隔2) 搜索kd树 见例3.3:找到一个叶子节点,画圆,...原创 2018-07-08 15:43:52 · 129 阅读 · 0 评论 -
第4章 朴素贝叶斯法
4.1 朴素贝叶斯法的学习与分类先验概率:p(Y)后验概率:p(Y|X)4.2 朴素贝叶斯法的参数估计后验概率中有p(Y)、p(X|Y)要学习:1)极大似然估计用“指示函数平均化”2)学习和分类算法用1)中的计算方法来学习用公式4.7来分类3)贝叶斯估计加一个正数...原创 2018-07-09 10:03:35 · 110 阅读 · 0 评论 -
第5章 决策树
5.1 决策树模型与学习5.2 特征选择目的:选取的特征对训练数据有分类作用特征选择的准则:信息增益或信息增益比信息增益:输入对训练数据分类不确定性减少的程度,信息增益越大越好 g(D,A)=H(D)-H(D|A)信息增益比:5.3 决策树的生成1)ID3算法 求所有特征关于训练数据的信息增益,选最大值作为当前结点 叶子结点:当前结点将训练数据划...原创 2018-07-10 14:07:30 · 308 阅读 · 0 评论 -
第1章 统计学习方法概论
模型(无穷多个)------->策略(选择最优模型)------->算法(生成最优模型)1)策略(选择最优模型) 损失函数(经验风险): 正则化(结构风险): 交叉验证(结构风险):2)算法(生成最优模型) 生成方法:条件概率分布 判别方法:...原创 2018-07-07 19:21:18 · 124 阅读 · 0 评论