- 博客(20)
- 收藏
- 关注
原创 机器学习-数学基础-梯度下降法
线性判别分析的思想可以表达为:类内小,类间大。线性判别分析是从降维的角度出发,假如原来的样本是p维的,线性判别分析就是想把原来的样本点投影到一维的坐标轴上之后再进行分类。
2022-09-04 22:27:02
445
原创 线性回归基础学习
下面我们有两种对最小二乘法的几何解释:第一种解释相当于是把总误差平均分散在了每一个样本上面;而第二种几何解释是把误差分散在了p个维度上面。线性回归正则化:例如:假如只有一个样本点,该样本点又有很高的维次,那么就可以有无数种拟合的方式,也就很容易出现过拟合的情况。解决这种过拟合的办法有以下几种:1.加数据(加样本点)2.特征选择/特征提取(选择样本点的某些属性,剔除一些无关的特征属性,从而达到一个降维的目的)3.正则化...
2022-04-02 11:30:41
1000
原创 支持向量机中的详细公式推导
根据几何意义转化成凸优化问题的公式推导:对偶关系中的弱对偶关系公式推导:使强对偶关系成立的详细的KKT条件公式推导:拉格朗日乘子法求导及详细的求导过程公式推导:软间隔公式推导:...
2022-01-23 21:05:54
1042
原创 前馈神经网络学习笔记
前馈神经网络(全连接神经网络)1、 概念及组成前馈神经网络:每层神经元与下层神经元相互连接,神经元之间不存在同层连接,也不存在跨层连接。组成:输入层、隐藏层、输出层常用神经元:M-P神经元2、 常见的激活函数Sigmoid函数、tanh函数、ReLu函数激活函数常有的性质:非线性可微性单调性f ( x ) ≈ x f(x)\approx xf(x)≈x输出值范围计算简单归一化 :要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内..
2022-01-22 21:12:53
452
原创 机器学习-支持向量机(svm原理)-线性不可分问题4
前面介绍的支持向量机都是在数据线性可分条件下的,但是当我们拿到训练数据时,并不一定能知道数据是否线性可分。若是低维数据我们可以通过可视化的方式观察是否线性可分,而高维数据则很难判断其是否线性可分了。例如下边的图中的红点和蓝点无法用一条直线分隔开,就属于典型的线形不可分问题。对线性不可分数据强行构建线性支持向量机分类可能会导致很差的分类效果,接下来我们就介绍一下如何在数据线性不可分条件下构建非线性支持向量机。核技巧把数据从低维空间映射到一个更高维的特征空间,可以将数据集变成线性分类问题,从而也就可
2022-01-11 21:16:02
628
原创 机器学习-支持向量机(svm原理)1
svm有三宝:间隔、对偶、核技巧svm的分类:hard-margin svm 硬间隔soft-margin svm 软间隔kemel svm核函数前面两种硬间隔和软间隔主要针对线性问题,核函数部分主要针对非线性问题,核技巧能够使svm从普通的欧氏空间、特征空间映射到高维空间,可以实现非线性的分类。svm原理的定义:svm原理用来解决二分类问题,其可以归结为一句话,即使离超平面最近的点(支持向量)到该平面的距离最大化。如图所示:超平面是针对二分类问题,通过超平面将样本分为正类和负类(即图中所示
2022-01-04 21:49:14
1345
1
原创 2021-11-07
svm原理推导![在这里插入图片描述](https://img-blog.csdnimg.cn/f1fec3c08f4c4a369e7726bfd837581a.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q
2021-11-07 19:19:08
78
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人