1、任务简介
学习损失函数视频
2017CS231n 斯坦福李飞飞计算机视觉识别_哔哩哔哩 (゜-゜)つロ 干杯~-bilibiliwww.bilibili.com2、任务详情
学习损失函数svm多分类损失函数与softmax
3、任务作业
- Hinge Loss 表达式
是错误分类的分数,
是正确分类得分
举例说明:
猫这一类的loss:L1= (5.1-3.2+1)+0(因为3.2>-1.7+1)=2.9
卡车这一类的loss:L2 = 0 + 0 = 0(因为4.9 > 1.3+1, 4.9>2.0+1)
青蛙这一类的loss: L3 = (2.2-(-3.1)+1) +(2.5-(-3.1)+1) = 12.9
L = (L1+L2+L3)/3 = 5.3
- 加正则的目的
减轻模型的复杂度,而不是试图去拟合数据
- Softmax 与交叉熵损失公式,分析交叉熵损失的最大值与最小值(softmax 求导要会)
Softmax公式 P =
交叉熵损失公式:Li = -logP
交叉熵损失的最大值为无穷大,最小值为0
- Hinge loss与Softmax的区别
区别见上述