cs231学习笔记二 线性分类器、SVM、Softmax

课程地址:http://cs231n.github.io/linear-classify/

线性分类器

假设样本 xiRD,i=1N ,对应类标签 yi1K 。现定义一个线性映射 f(xi,W,b)=Wxi+b W KD的矩阵, b K维的向量。 W b分别称作权重(或参数)和偏。

  • W 的每一行都是一个分类器,每个分类器对应于一个得分。
  • 通过学习W b ,我们希望正确类的得分要大于错误类的得分。
  • 相对于KNN,一旦训练得到W b ,我们只需将其固定,测试阶段直接用即可,就不再需要测试样本与训练样本再做比较,测试速度自然快上不少。

    liner classification

将图片的三维张量拉伸成列向量,则一张图片就可以表示成空间中的一个(带类标签)点。如此看来Wi是分类超平面的一次项系数, bi 则是常熟项。如果 b=0 ,则所有分类超平面都过原点。
这里写图片描述

如果令 W=[W,b] xi=[xTi,1]T f=Wxi
这里写图片描述

机器学习中常将输入特征标准化。

Loss function

损失函数(loss function)也叫代价函数(cost function)或目标函数(objective)

多类SVM

对于样本 i ,定义第j类的得分 sj=f(xi,W)j ,样本 i 的损失函数定义为Li=jyimax(0,wTjxiwTyixi+Δ),即希望正确分类的得分至少比错误分类的得分多 Δ .
W 能正确分类所有的样本,则λW也能正确分类所有的样本,这样学习出来的 W 就不唯一了。所以在总的损失函数中加入正则乘法项。其实加入加入正则项最主要的目的是增强模型的泛化能力

L=1NiLidata loss+λR(W)regularization loss

L=1Nijyi[max(0,f(xi;W)jf(xi;W)yi+Δ)]+λklW2k,l
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值