笔记
文章平均质量分 50
-李颖
“平芜尽处是春山”
展开
-
机器学习-数学基础-梯度下降法
线性判别分析的思想可以表达为:类内小,类间大。线性判别分析是从降维的角度出发,假如原来的样本是p维的,线性判别分析就是想把原来的样本点投影到一维的坐标轴上之后再进行分类。原创 2022-09-04 22:27:02 · 441 阅读 · 0 评论 -
线性回归基础学习
下面我们有两种对最小二乘法的几何解释:第一种解释相当于是把总误差平均分散在了每一个样本上面;而第二种几何解释是把误差分散在了p个维度上面。线性回归正则化:例如:假如只有一个样本点,该样本点又有很高的维次,那么就可以有无数种拟合的方式,也就很容易出现过拟合的情况。解决这种过拟合的办法有以下几种:1.加数据(加样本点)2.特征选择/特征提取(选择样本点的某些属性,剔除一些无关的特征属性,从而达到一个降维的目的)3.正则化...原创 2022-04-02 11:30:41 · 996 阅读 · 0 评论 -
OpenCv入门笔记(2)
ggg原创 2022-01-18 21:52:37 · 1720 阅读 · 0 评论 -
OpenCv入门笔记(1)
mm原创 2022-01-18 20:23:53 · 2852 阅读 · 0 评论 -
卷积神经网络(CNN)笔记(2)
卷积神经网络中的公式推导:原创 2022-01-14 22:07:07 · 321 阅读 · 0 评论 -
卷积神经网络(CNN)笔记(1)
卷积原创 2022-01-13 21:20:21 · 1767 阅读 · 0 评论 -
机器学习-支持向量机(svm原理)-线性不可分问题4
前面介绍的支持向量机都是在数据线性可分条件下的,但是当我们拿到训练数据时,并不一定能知道数据是否线性可分。若是低维数据我们可以通过可视化的方式观察是否线性可分,而高维数据则很难判断其是否线性可分了。例如下边的图中的红点和蓝点无法用一条直线分隔开,就属于典型的线形不可分问题。对线性不可分数据强行构建线性支持向量机分类可能会导致很差的分类效果,接下来我们就介绍一下如何在数据线性不可分条件下构建非线性支持向量机。核技巧把数据从低维空间映射到一个更高维的特征空间,可以将数据集变成线性分类问题,从而也就可原创 2022-01-11 21:16:02 · 619 阅读 · 0 评论 -
机器学习-支持向量机(svm原理)-约束优化问题3
原创 2022-01-07 21:50:03 · 500 阅读 · 0 评论 -
机器学习-支持向量机(svm原理)-软间隔 2
I原创 2022-01-07 20:30:26 · 456 阅读 · 0 评论 -
机器学习-支持向量机(svm原理)1
svm有三宝:间隔、对偶、核技巧svm的分类:hard-margin svm 硬间隔soft-margin svm 软间隔kemel svm核函数前面两种硬间隔和软间隔主要针对线性问题,核函数部分主要针对非线性问题,核技巧能够使svm从普通的欧氏空间、特征空间映射到高维空间,可以实现非线性的分类。svm原理的定义:svm原理用来解决二分类问题,其可以归结为一句话,即使离超平面最近的点(支持向量)到该平面的距离最大化。如图所示:超平面是针对二分类问题,通过超平面将样本分为正类和负类(即图中所示原创 2022-01-04 21:49:14 · 1326 阅读 · 1 评论 -
2021-11-07
svm原理推导![在这里插入图片描述](https://img-blog.csdnimg.cn/f1fec3c08f4c4a369e7726bfd837581a.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q原创 2021-11-07 19:19:08 · 76 阅读 · 0 评论