统计学习方法
cdy艳0917
这个作者很懒,什么都没留下…
展开
-
优化网络-----常用的损失函数
如何优化网络首先我们知道,卷积神经网络有前向传播和反向传播组成前向传播是搭建网络结构的,反向传播是优化网络的训练参数的那么,优化网络有哪些方面?优化分为四个方面:损失函数的优化、学习率的优化、滑动平均ema、正则化等损失函数的优化:测量预测值和真实值之间的距离,优化的目标就是使loss最小。常见的损失函数分为:均方误差(MSE),交叉熵损失等均方误差(MSE):该统计参数是预测数据和原始数据对应点误差的平方和的均值。一、0-1loss只是简单的分类,正确为1,错误为0,不能对x进行求导,因原创 2020-07-15 10:27:37 · 1034 阅读 · 0 评论 -
支持向量机 (SVM)算法的原理及优缺点
支持向量机(Support Vector Machine,常简称为SVM)是一种监督式学习的方法,可广泛地应用于统计分类以及回归分析。它是将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面,分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小支持向量机的基本思想对于线性可分的任务,找到一个具有最大间隔超平面实验一般步骤:(1)导入数据; (2)数据归一化; (3)执行svm寻找最优原创 2020-07-13 11:30:23 · 11784 阅读 · 0 评论 -
KNN算法思想及算法描述和优缺点
KNN适用于分类的,不需要训练,该算法所选的邻居都是已经正确分类的对象。该算法在定类决策上只依据最邻近的一个或者几个样本类别来决定待分类样本所属的类别KNN算法的思路:KNN是通过不同特征之间的距离进行分类的。如果一个样本在特征空间中的K个最相似的样本中的大多数属于同一类别,则该样本也属于这一类别,其中K通常是不大于20的整数。KNN算法得结果很大程度上取决于K的选择KNN算法的思想:在训练集的数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练与之最原创 2020-07-13 10:36:01 · 5562 阅读 · 0 评论 -
svm支持向量机算法的详细推导过程
我将从以下几个角度进行讲解:首先对一下简单的概念进行介绍,然后对线性svm进行详细推导。如果你对以下的概念均知晓,可以直接跳过哟概念介绍1.svm的主要思想从线性可分模式分类角度看,SVM的主要思想是:建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的距离最大化,从而对分类问题提供良好的泛化能力。2.线性可分数据的二值分类机理线性可分数据的二值分类机理:系统随机产生一个超...原创 2019-06-13 22:09:18 · 1533 阅读 · 0 评论 -
KNN最邻近分类算法
KNN(K-Nearest Neighbor)最邻近分类算法是数据挖掘分类(classification)技术中最简单的算法之一,其指导思想是”近朱者赤,近墨者黑“,即由你的邻居来推断出你的类别。...转载 2019-09-06 21:15:34 · 413 阅读 · 0 评论