Pytorch深度学习笔记第二次

四、反向传播
反向传播:神经网络中重要算法,可以在图上面进行梯度传播,可帮助建立更具弹性的模型结构。
单个样本:
ω=ω-α ∂loss / ∂ω
两层神经网络:
在这里插入图片描述
计算过程:先前馈求出损失,后反馈求出梯度,最后用梯度下降更新权重。(先算损失,再反向传播)
五、用Pytorch实现线性回归
构造神经网络
构造损失函数
构造随机梯度下降优化器
内容:利用PyTorch提供的工具重现线性模型的训练过程,更方便的完成线性模型。
PyTorch写深度神经网络步骤:
1.准备数据集
2.设计模型,计算y_hat,而非损失
3.构造损失函数和优化器
4.写训练周期(前馈、反馈、更新)
广播机制:扩充矩阵,使两个矩阵可进行相加、相乘等运算。
PyTorch中不用人工求导数,重点是构造计算图。
线性单元:z = w * x + b
线性单元中若要知道权重大小,需要知道x和y_hat的维度。
构造计算图:
在这里插入图片描述
在loss处调用backward就可对计算图进行反向传播。
loss要求是标量
在这里插入图片描述
矩阵中,行表示样本,列表示feature。
六、逻辑斯蒂回归:做分类
数字0到9表示类别比较,而非数值比较。
二分类:只有两个类别的分类。
Logistic Regression函数:
在这里插入图片描述
此函数为饱合函数,输出范围在[0,1]
饱合函数的导数图像大致符合正态分布曲线,即先增后减。
饱合函数在神经网络里应用很多。
Logistic Rwgreaaion函数:逻辑斯蒂回归函数,输出值在[0,1]之间。
sigmoid函数的特点:
1.函数值有极限
2.单调的增函数
3.饱合函数
Logistic函数是Sigmoid函数中最出名的一个。
分布之间的差异计算:KL散度、交叉熵(cross-entropy)。
交叉熵:
在这里插入图片描述
二分类的交叉熵(BCE损失):
在这里插入图片描述
均值:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值