![](https://img-blog.csdnimg.cn/5b807d1d6dfe418e985d328ddd79e3de.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习 Machine Learning
文章平均质量分 81
机器学习笔记
MrNeoJeep
Talk is cheap,show me your code.
展开
-
Loss function和Cost function的区别
例如,在二分类问题中,对于每个样本,可以使用交叉熵等损失函数来度量模型预测的标签与真实标签之间的差距。因此,Loss function的目的是最小化单个样本的误差。是指对于一个给定的训练样本,用模型对该样本进行预测得到的结果与该样本的真实结果之间的差距。则是计算单个样本预测误差的度量。的值,从而使模型在整个数据集上的预测误差最小化。都是用来度量模型预测结果和实际结果之间的差距。看作是对模型在整个数据集上的性能评估,而。来度量模型在整个数据集上的预测性能。的目的是最小化整个数据集上的误差。原创 2023-05-03 20:57:30 · 474 阅读 · 0 评论 -
集成算法简介
集成学习(EnsemblelearningEnsemblelearning)的目的是让机器学习的的效果更好,一个不行,就多个一起。常用的有三种方式Bagging:训练多个分类器取平均fx1M∑m1Mfmxfx1/Mm1∑MfmxBoosting:从弱学习器开始加强,通过加权来进行训练FmxFm−1xargminh∑i1nLyiFm−1xihx。原创 2023-02-07 13:18:45 · 590 阅读 · 0 评论 -
决策树详细介绍(含sklearn演示代码)
顾名思义和现实中的树类似,一般可以这样表示一般由三个部分组成根节点,如上图的1分支节点,如上图24叶子节点,如上图56378树是数据结构里的一个知识点,这里不过多赘述,更多内容请自行搜索。原创 2023-02-06 22:42:30 · 1499 阅读 · 0 评论 -
KNN(K-近邻)算法
KNNK−NearestNeighborKNNK−NearestNeighbor是机器学习中最基础的算法之一。既可以用于分类也可以用于回归KNNKNNKNN通过测量不同特征值之间的距离来进行分类。原创 2023-02-01 23:15:56 · 382 阅读 · 0 评论 -
聚类--常见的K-MEANS聚类,DBSCAN聚类方法介绍
➡️聚类就是把相似的物品分到一组。例如苹果,橙子属于水果类,猫,狗属于动物类,聚类把具有相似属性的物品分到同一组。☕常见的两种监督问题有监督问题:有标签学习,通过已知输入输出的训练样本进行训练,从而得到一个最优的模型,并将该模型应用在新的数据上,映射为输出结果。无监督问题:无标签学习,对没有标记的训练样本(即不知道当前输入数据对应的输出)进行学习,以发现训练样本集中的结构性知识。通过对无标记的学习来揭示数据的内在性质和潜在规律,为进一步的数据分析提供基础。➡️聚类是一个典型的无监督的问题➡️。原创 2023-01-10 23:37:59 · 1260 阅读 · 0 评论