这篇博客支持向量机(SVM)——原理篇对SVM原理讲解的比较透彻,下面是斯坦福大学吴恩达教授的机器学习公开课中的理解。
SVM的损失函数:
m i n θ C ∑ i = 1 m [ y ( i ) c o s t 1 ( θ T x ( i ) ) + ( 1 − y ( i ) ) c o s t 0 ( θ T x ( i ) ) ] + 1 2 ∑ i = 1 n θ j 2 min_\theta C\sum_{i=1}^{m}[y^{(i)}cost_1(\theta^Tx^{(i)})+(1-y^{(i)})cost_0(\theta^Tx^{(i)})]+\frac{1}{2} \sum_{i=1}^{n}\theta_j^2 minθCi=1∑m[y(i)cost1(θTx(i))+(1−y(i))cost0(θTx(i))]+21i=1∑nθj2
当 y ( i ) = 1 y^{(i)}=1 y(i)=1时,总有 θ T x ( i ) ⩾ 1 \theta^Tx^{(i)} \geqslant 1 θTx(i)⩾1;
当
SVM支持向量机公式及核函数
最新推荐文章于 2024-05-19 10:54:34 发布