机器学习
文章平均质量分 92
Fighting_1997
唯有勤奋不会辜负于你。
展开
-
机器学习之逻辑回归(LR)学习
理论推荐观看https://zhuanlan.zhihu.com/p/74874291 (非常详细,公式偏多)https://cuijiahua.com/blog/2017/11/ml_6_logistic_1.html(简单入门理论部分)http://www.360doc.com/content/18/0123/11/49770339_724393519.shtml (LR部分)1. LR的原理?线性模型外面加个sigmoid激活函数,二分类分类器通过上述推导我们可以看到 Logistic.原创 2022-04-07 13:48:40 · 2617 阅读 · 0 评论 -
机器学习之KNN邻近算法学习
前言KNN和K-means是不同的哦,小伙伴们不要搞混!KMeans算法是一种无监督的聚类方法,其工作流程如下:(1)在一群无标签的数据中,随机选择k个数据作为簇中心(k是人为选择的)(2)依照某种距离度量,计算除掉这k个数据点的其他数据点到这k个簇中心的距离,将该点划分到离他最近距离的簇中心所属的簇。(3)计算划分好的簇的质心,使其作为新的簇的中心。(4)重复(2)到(3)步,直到新的质心与原来的簇的中心相等或者两者的距离小于阈值就停止重新划分KNN算法是一种监督学习算法,其工作流程如下:原创 2022-04-07 11:01:08 · 1537 阅读 · 0 评论 -
感知机和多层感知机详细学习
1. 感知机的前向推理?感知机其实就是类似神经网络的一个神经元w0相当于bias,也就是偏置w1-wn是权重step fuction是sign前向推理的公式2. 感知机的loss function是什么?loss function即目标函数,模型所要去干的事情就是我们所定义的目标函数这里采用各个误分类点与超平面的距离来定义。图中(目前以输入为2维(x为x1和x2)情况下举例)w为超平面的法向量,与法向量夹角为锐角即为+1的分类,与法向量夹角为钝角为-1的分类具体公式:其.原创 2022-04-07 10:22:15 · 3910 阅读 · 0 评论 -
labelsmoothing
标签平滑-labellabellabel smoothingsmoothingsmoothing在深度学习样本训练的过程中,当我们采用 oneoneone-hothothot 标签去进行计算交叉熵损失时,只考虑到训练样本中正确的标签位置(oneoneone-hothothot 标签为 111 的位置)的损失,而忽略了错误标签位置(oneoneone-hothothot 标签为 000 的位置)的损失。这样一来,模型可以在训练集上拟合的很好,但由于其他错误标签位置的损失没有计算,导致预测的时候,预测错误的概原创 2022-03-10 19:48:29 · 223 阅读 · 0 评论 -
L1与L2正则的比较
L1L1L1与L2L2L2正则的区别正则化(RegularizationRegularizationRegularization) 是机器学习中对原始损失函数引入惩罚项,以防止过拟合或提高模型泛化性能的一类方法的统称。所谓惩罚是指对损失函数中的某些参数做一些限制。此时目标函数变成了原始损失函数+惩罚项,常用的正则项一般有两种,英文称作l1−norml_{1}−norml1−norm和l2−norml_{2}−norml2−norm,中文称作L1L1L1正则化和L2L2L2正则化,或者L1L1L1范数和原创 2022-03-10 19:26:50 · 1046 阅读 · 0 评论