[CS231n Assignment #1] 简单图像分类器——Softmax线性分类器

本文介绍了CS231n课程的首个作业,内容涉及Softmax分类器的实现,包括下载数据集、损失函数、随机梯度下降优化、预测和权重可视化。在损失函数部分,讨论了多分类交叉熵损失和正则化项,并通过数值梯度检验解析梯度的正确性。在优化过程中,通过验证集调整学习率和正则化强度,以提高模型性能。
摘要由CSDN通过智能技术生成

作业介绍
  • 作业主页:Assignment #1
  • 作业目的:
    • 针对Softmax分类器,实现一个全向量化的 损失函数(loss function)
    • 实现损失函数的矢量化解析梯度(analytic gradient)
    • 数值梯度(numerical gradient) 检验解析梯度是否正确
    • 使用测试集(val set)调试学习率和正则化程度大小( the learning rate and regularization)
    • 使用 SGD 更新策略 最优化我们的SVM损失函数
    • 可视化最后学习到的权重
  • 官方给的示例代码:assigment #1 code
知识点简单回顾

多分类交叉熵损失 和SVM损失不一样的是其在计算交叉熵损失之前需要讲输出 归一化(即统一成一个概率分布),具体的函数表达式如下:
S o f t m a x ( x ) i = e s i ∑ j = 1 C e s j ( i = 1 , . . . , C ) Softmax(x)_i = \frac {e^{s_i}} {\sum_{j=1}^{C} e^{s_j}} \quad (i=1,...,C) Softmax(x)i=j=1Cesjesi(i=1,...,C)
即其表示是C类中每类的概率。然后才是我们对于每一样本的损失函数:
L i = − log ⁡ e s y i ∑ j = 1 C e s j = − s y i + log ⁡ ∑ j = 1 C e s j L_i = -\log \frac {e^{s_{y_i}}} {\sum_{j=1}^{C} e^{s_j}}= -s_{y_i} + \log \sum_{j=1}^{C} e^{s_j} Li=logj=1Cesjesyi

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值