自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 李航《统计学习方法》第二版-决策树生成(2)CART算法

既可作分类,又可做回归 5.5.1 CART生成

2021-11-14 21:32:07 910

原创 李航《统计学习方法》第二版-决策树的生成

一 、ID3算法 用信息增益判断 二、C4.5 算法 用信息增益比做特征选择 三、决策树的剪枝 将预测误差项和损失项做平衡 剪枝算法步骤:

2021-11-09 23:03:34 550

原创 李航《统计学习方法》第二版-第五章 决策树-特征选择

特征重要性排序 5.2.2 信息增益 经验熵与经验条件熵之差 信息增益比 ...

2021-11-09 22:23:05 746

原创 李航《统计学习方法》第二版-决策树

GBDT用的很多,树模型,xgboost 决策树学习步骤:特征选择、决策树生成、决策树的修剪 决策树可用于分类和回归 特征的排序 决策树相当于条件概率分布 决策树剪枝学习整体的模型

2021-11-08 22:40:08 586

原创 李航《统计学习方法》第二版-第四章 朴素贝叶斯

本来分为很多维度,互相有联系,利用贝叶斯变为相乘的形式,只需考虑当前维度和Y的关系,直接用频率就可数出。 朴素:意味着做出了条件独立性的假设,但条件不可能都是独立的 分母为分类讨论,分类讨论在求和 要输出哪一种类别输出条件概率最大,为生成模式 判别模型根据两者之间的差别,不需每个分别建立模型 ...

2021-11-07 22:45:08 206

原创 李航《统计学习方法》第二版-第三章k近邻模型

3.3 构造kd树 3.4 搜索kd树 kd树可帮助找到测试点最近邻的k个训练点,利用kd树可以实现k近邻搜索

2021-11-05 16:29:45 134

原创 李航《统计学习方法》第二版-感知机学习算法的对偶形式

对偶形式就是将w变换为乘积形式 代表误分类点用到的次数 将W替代 利用感知机的对偶形式求解感知机的参数 实例: ...

2021-11-01 23:21:13 147

原创 李航《统计学习方法》第二版-第二章 感知机

2.1 感知机模型 二分类线性模型,属于判别模型,对于误分类的损失函数最小化(梯度下降) 找超平面,通过确定两个参数和b 2.2 感知机学习策略 2.2.1 数据集的线性可分性 2.2.2 感知机学习策略 定义损失函数 误分类点到超平面的距离 针对误分类点 、 函数间隔除以模变成几何间隔 感知机找到的超平面可能不唯一,SVM是唯一的超平面 ...

2021-10-31 23:55:56 693

原创 李航《统计学习方法》第二版-第一章习题

1、准备知识 一、伯努利分布 只有两种结果 二、二项分布 三、极大似然估计(MLE) 要求使样本出现概率最大的,由样本求得,完全依赖于数据 四、贝叶斯最大后验概率估计(MAP) 有先验知识,不完全依赖于数据,还依赖于先验知识 贝叶斯最大后验概率比极大似然多了一项P()先验 ...

2021-10-30 22:18:58 175

原创 李航《统计学习方法》第二版-分类问题

精确率:都表示预测为正类的(正对和正错的),更希望判断正确率高 召回率:为多少正例被挑出,预测为正例和所有正例比值,宁可错判,不漏一个 两个互斥

2021-10-28 22:33:54 112

原创 李航《统计学习方法》第二版第一章-生成模型和判别模型

判别模型只关心样本属于哪一类 生成模型估计联合概率分布,判别模型估计条件概率分布 1、生成模型:通过联合分布得到条件概率分布;关注数据内部关系,对联合分布建模,关注样本分布,如何生成 2、判别方法:不关心X和Y之间的关系;不在乎关联关系,只在乎输入X,得到的Y值;直接对条件概率进行建模 3、特点 机器学习实际更在乎,输入X,得到怎样的Y值,直接对条件概率进行建模,不知道X和Y的真实关系。生成方法往往带入初始的先验假设。 存在隐变量,生成方法可用。往往涉及EM 4、代...

2021-10-26 21:57:52 167

原创 李航《统计学习方法》第二版第一章-泛化误差

联合概率分布没法直接知道 ,没法求泛化误差,因此只能求泛化误差上界 泛化误差越小,泛化能力越好 1、数据量大,泛化误差上界趋于0 2、假设空间容量越大,模型越难学,泛化误差上界越大 泛化误差上界=经验风险+误差,N为样本容量,d为假设空间中函数的个数 经验风险是对损失函数求平均值 二、泛化误差上界推导 样本均值的期望等于总体的期望 下面为上面图片的证明 X为损失函数 ...

2021-10-26 21:17:51 457

原创 李航《统计学习方法》第二版第一章(正则防止过拟合)

L1正则化有稀疏性,相当于进行特征选择;L2正则化 模型复杂度和参数向量有关,使某些参数为0 加了正则化项,变为结构风险最小化 要使W限制在一个范围内,变为不等式约束问题 不等式约束问题,利用KKT条件 加正则化项等价于带约束条件,向量被限制在范围内 2、为什么L1正则具有稀疏性?可做特征选择 1)从解空间形状看 目标损失函数,等值线图;交点取最佳参数 坐标轴上的点代表某一轴为0,可使某些参数为0 L1正则更容易在顶点取得最优解 2)从贝叶斯最大后验概率估计角...

2021-10-24 21:02:13 85

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除