先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7
深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年最新Python全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上Python知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
如果你需要这些资料,可以添加V获取:vip1024c (备注Python)
正文
SVM旨在找到一个划分超平面,使得划分后的分类结果是最鲁棒的,对未见过的样本泛化性最好2。
在样本空间中,划分超平面可以用这个方程进行描述:
w
T
x
b
=
0
\boldsymbol{w}^T\boldsymbol{x}+b=0
wTx+b=0,其中
w
=
(
w
1
;
w
2
;
.
.
.
;
w
d
)
\boldsymbol{w}=(w_1;w_2;…;w_d)
w=(w1;w2;…;wd)为法向量,决定超平面的方向,b为位移项,决定超平面与原点之间的距离。
对于线性可分的样本空间,需要找到具有最大间隔(maximum margin)的划分超平面,即找到能使下式最大化的参数
w
\boldsymbol{w}
w和b2:
min
w
,
b
1
2
∣
∣
w
∣
∣
2
\min_{w,b}{\frac{1}{2}||\boldsymbol{w}||^2}
w,bmin21∣∣w∣∣2s.t.
y
i
(
w
T
x
i
b
)
≥
1
,
i
=
1
,
2
,
.
.
.
,
m
y_i(\boldsymbol{w}^T\boldsymbol{x_i}+b)≥1,i=1,2,…,m
yi(wTxi+b)≥1,i=1,2,…,m
对于线性不可分的样本空间,可以将样本从原始空间映射到另一个高维特征空间,从而使样本在这个特征空间内线性可分。由于特征空间的维数可能很高,难以计算,所以通过引入核函数,可以将高维特征空间中的内积(dot product)转化为低维特征空间中的通过核函数计算的结果。
常用核函数2:
为了减少过拟合,引入软间隔(soft margin)概念,允许支持向量机在一些样本上出错:
y
i
(
w
T
x
i
b
)
≥
1
y_i(\boldsymbol{w}^T\boldsymbol{x_i}+b)≥1
yi(wTxi+b)≥1
用参数C来约束分类出错的样本,松弛变量
ξ
i
ξ_i
ξi表示训练样本距离对应的正确决策边界的距离,对于分类正确的样本距离即为03,所以实际累加的是出错样本的距离。
优化问题调整为:
m
i
n
w
,
b
0
∣
∣
w
∣
∣
2
C
∑
i
ξ
i
min_{\boldsymbol{w},b_0}{||\boldsymbol{w}||^2+C\sum_i{ξ_i}}<