机器学习
文章平均质量分 83
帅翰GG
这个作者很懒,什么都没留下…
展开
-
C3-1.3.1 无监督学习——异常检测
这里只拿出来两个特征值(X1 , X2)来举例,为了可视化让我们了解的更加方便,实际应用中 特征的数量可能达到上百 / 上千:说明的大概率的,是正常的:是小概率发生的事件,要进行进一步的检查**P(X):**这里通过训练集建立完成 模型 P(X)后,用训练集数据 X-test 来判断结果 P(X-test):是否是状态异常的发动机**ε的值:**即最外圈蓝色框的概率的值。原创 2024-01-10 09:52:25 · 889 阅读 · 0 评论 -
C2-3.3.4 One-hot编码
前面提到的决策树——判断是否是 “猫”,利用的是原理——即:只有两个判断结果 “是否软耳”、“是否有胡子”…原创 2024-01-09 11:02:34 · 359 阅读 · 0 评论 -
C2-4.3.1 多个决策树——随机森林
决策树中的每一个节点是特征的一个随机子集,用于计算输出。当我们执行分类任务时,新的输入样本进入,对森林中的每一棵决策树分别进行判断和分类。每棵决策树都会得到自己的分类结果,而决策树哪个分类结果最多,那么随机森林就会用这个结果作为最终结果。所以就变成了右侧的决策树,使得左右两侧变成了完全不同的决策树。,往往一棵树的结果不是那么理想—— 通过多个决策树的组合,让它对数据变化没那么敏感,得到更加准确的结果。,将选取的N个样本作为决策树根节点的样本来训练一棵决策树。如下:是有放回的随机抽样的结果。原创 2024-01-09 10:57:56 · 1100 阅读 · 0 评论 -
C2-4.2.2 决策树-纯度+信息熵+信息增益
【※※※总结】:信息熵是用来衡量 给出的数据集中 数据的纯度的信息熵越小,数据就越纯。通常用在机器学习分类的情况下3.2 信息熵公式。原创 2024-01-09 10:38:07 · 1820 阅读 · 0 评论 -
C2-3.3.3 迁移学习
【※注释】:必须是同一个输入类型。原创 2024-01-08 21:28:06 · 476 阅读 · 0 评论 -
2.2.3机器学习—— 判定梯度下降是否收敛 + α学习率的选择
*第一步:**首先选择从 0.0001 0.01 0.1 1 10 依次去尝试,当发现学习率α的值过大时(J(W,b)损失函数发生上弹)。第二步:再进行从最后一次正常的α值(出现损失函数J(w,b)上弹之前的值),依次迭代乘3去尝试。最后收敛后,选择最合适的α值。原创 2024-01-08 10:04:09 · 863 阅读 · 1 评论 -
1.4.1机器学习——梯度下降+α学习率大小判定
我们开始的时候w和b可以设置为任意值。(这里我们设置 w=0 , b = 0)通过迭代不断的调整 w和b 的值,去尽量的降低损失函数J(w,b)直到我们的损失函数J(w,b) 达到/接近 “谷底”/最小值【※注意】 :损失函数可能不仅仅是一个如右图的抛物线,也可能是“高尔夫球场图”,这样的话minimum最小值的个数就不仅仅是一个了“高尔夫球场图”图中XYZ轴分别代表:W,b , 损失函数 J(w,b)的值。原创 2024-01-08 10:05:01 · 1124 阅读 · 0 评论 -
C2-3.4.1 精准率 和 召回率——解决样本不平衡的情况下 准确率的问题
总结一句话:精准率 和 召回率——解决**样本不平衡**的情况下 **准确率**的问题原创 2024-01-05 20:08:20 · 1055 阅读 · 1 评论 -
C2-3.3.2 机器学习/深度学习——数据增强
# 1、为什么要使用数据增强?- ※总结最经典的一句话:**希望模型学习的更稳健**原创 2024-01-05 15:39:48 · 1049 阅读 · 1 评论 -
C2-3.2.1 诊断Bias(偏差) and variance(方差)——误差的两大来源+解决方案
总结:理解一:方差度量了同等大小的的变动导致学习性能的变化,。当模型越复杂时, 拟合的程度就越高, 模型的训练偏差就越小。但此时如果换一组数据可能模型的变化就会很大, 即模型的方差很大。所以模型过于复杂的时候会导致过拟合。:是指:对于一组给定范围的数据,我们预测的很好。。但是换了一组数据后我们预测的结果没有那么理想。。。——这也是方差的定义:说一个小孩学习成绩方差大,该不该派他去参加比赛,泛化能力差,因此在训练集上变现的很好,但是在测试集上变现的不好。导致的是 过拟合。原创 2024-01-04 09:57:34 · 876 阅读 · 1 评论 -
3.4.1-欠拟合 与 过拟合(Bias and variance) + 相关解决方案
欠拟合 与 过拟合(Bias and variance) + 相关解决方案原创 2024-01-04 09:55:27 · 1002 阅读 · 1 评论