前言
支持向量机真的是机器学习的拦路虎,学了有一个星期时间,还是写写博客记录下吧,本篇博客主要是补充一些数学知识。
数学知识
因为在看SVM推导的时候一些数学公式不太好理解,希望帮助到大家!
1.范数求导
-
在SVM里面我们所说的向量范数都是2范数,若x是一个n维的列向量,那么x的范数为:
∥ x ∥ = x 1 2 + x 2 2 + … + x n 2 \lVert x\lVert=\sqrt{x_1^2+x_2^2+\ldots+x_n^2} ∥x∥=x12+x22+…+xn2 -
对 ∥ x ∥ 2 \lVert x\lVert^2 ∥x∥2其求偏导数为:
∇ ∥ x ∥ 2 = 2 x \nabla\lVert x\lVert^2 =2x \ ∇∥x∥2=2x
2.点到超平面距离
-
首先,先回顾下点到平面的距离:
平面: w 1 x + w 2 y + b = 0 w_1x+w_2y+b=0 w1x+w2y+b=0,则( x 0 , y 0 x_0,y_0 x0,y0)到平面的距离:
d = ∣ w 1 x + w 2 y + b ∣ w 1 2 + w 2 2 d=\frac{\lvert w_1x+w_2y+b\rvert}{\sqrt{w_1^2+w_2^2}} d=w12+w22∣w1x+w2y+b∣ -
点 x 0 x_0 x0到超平面距离:
d = ∣ w T x 0 + b ∣ w 1 2 + w 2 2 + … + x n 2 = ∣ w T x 0 + b ∣ ∥ w ∥ d=\frac{\lvert w^Tx_0+b\rvert}{\sqrt{w_1^2+w_2^2+\ldots+x_n^2}}=\frac{\lvert w^Tx_0+b\rvert}{\lVert w\lVert} d=w12+w22+…+xn2∣wTx0+b∣=∥w∥∣wTx0+b∣