CS231n学习笔记

这篇博客主要介绍了CS231n课程中的核心概念,包括线性分类器与损失函数的原理,强调了权重和偏置的随机初始化以及正则化的应用。随后讲解了反向传播的细节,特别是梯度计算。接着讨论了神经网络中的激活函数,指出sigmoid和tanh的局限性。博主还提醒读者注意训练数据的预处理方法,并分享了训练神经网络时的注意事项,如初始化权重、损失跟踪、学习率调整及超参数搜索策略。
摘要由CSDN通过智能技术生成

线性分类器与损失函数

上一节课讲的是有关于图像分类的问题,并介绍可KNN算法,这一节课中讲的是更强大的算法用来解决图像分类问题。线性分类器由两部分组成,一个是评分函数用来表示将图像数据映射到类别分数。比如有猫狗车三类,通过简单的SVM可以得到三类的分数,然后选择较高的一项。 还有一部分是损失函数,得到分类标签与真实标签是否一致性的分数,有多种计算方法,损失函数也是非常重要的,可以转化为一个最优化问题。

在线性分类函数中,权重W和偏置b都是可以控制改变的,我们一般随机取权重W,并且一般都很小,以至于评分都为0(此时还可以拿来预估损失值,若与真实得到的偏差较大,可能哪里出错),然后我们可以通过训练数据来学习到参数w,b。

损失函数还有正则化的应用。可以通过正则化惩罚来抑制大数值的权重。 我们可以通过调节(浪大)的值,将该值减小则是减小了惩罚增加了其拟合能力,相反的增大则提升其泛化能力。其中的超参数的设置其实没有意义,如我上面讲的,我们主要通过调节(浪大)的值

反向传播

在不同分支的梯度在回传时要相加。 损失函数应该考虑分类正确的情况和分类错误的情况。 矩阵相乘的梯度是比较有难度得,我们可以从矩阵的shape来解决。梯度的大小肯定是跟权重W的矩阵大小相同。所以我们可以从矩阵乘法入手,来让维度对上。

神经网络

激活函数优缺点
sigmoid和tanh函数的共同缺点:梯度依旧可能饱和,这样梯度就无法在网络中传播的。饱和指得就是在接近-1,1时的梯度接近于0。 sigmoid函数缺点二,由于它得出的数据都在

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值