机器学习 支持向量机
学习日志 2136周
分类过渡到向量机
-
c o s t 0 ( θ T x ( i ) ) cost_0(\theta^Tx^{(i)}) cost0(θTx(i))和 c o s t 1 ( θ T x ( i ) ) cost_1(\theta^Tx^{(i)}) cost1(θTx(i))函数替换 l o g ( h θ ( x ) ) log(h_{\theta}(x)) log(hθ(x))相关函数
-
删去 1 m \frac{1}{m} m1,形式: ( A + λ × B ) → ( C × A + B ) (A+\lambda\times B){\to}(C×A+B) (A+λ×B)→(C×A+B)(类似于 C = 1 λ C=\frac{1}{\lambda} C=λ1)
-
C = 1 λ C=\frac{1}{\lambda} C=λ1
- C C C较大时,相当于 λ \lambda λ较小,可能会导致过拟合,高方差。
- C C C较小时,相当于 λ \lambda λ较大,可能会导致欠拟合,高偏差。
-
当 C C C不是非常非常大的时候,它可以忽略掉一些异常点的影响,得到更好的决策界
-
最后有别于逻辑回归输出的概率。在这里,我们的代价函数,当最小化代价函数,获得参数 θ \theta θ时,支持向量机所做的是它来直接预测 y y y的值等于1,还是等于0。因此,这个假设函数会预测1。当 θ T x \theta^{T}x θTx大于或者等于0时,或者等于0时,所以学习参数 θ \theta θ就是支持向量机假设函数的形式。那么,这就是支持向量机数学上的定义。
S V M SVM SVM理解
-
大间距分类器
-
理解时假设: C C C非常大时(便于理解向量机;看公式:要求变为使A趋近0,目的变为最小化B,即最小化 θ \theta θ),忽略掉截距,令 θ 0 = 0 \theta_{0}=0 θ0=0
-
支持向量机做的全部事情,就是极小化参数向量 θ \theta θ范数的平方,或者说长度的平方。
-
即便 θ \theta θ不等于0,支持向量机要做的事情都是优化这个目标函数对应着 C C C值非常大的情况,但是可以说明的是,即便 θ 0 \theta_{0} θ
-