深度学习之反向传播

本文介绍了在PyTorch中深度学习的前馈运算过程,包括计算输入x和权重w的组合结果z,以及通过loss函数评估误差。接着阐述了反向传播(BP)算法,用于计算梯度并优化权重。激活函数的重要性在于引入非线性,避免多层网络简化为线性模型。最后概述了整个学习过程,包括实例流程图和优化权重的步骤。
摘要由CSDN通过智能技术生成

0 特别说明

0.1 学习视频源于:b站:刘二大人《PyTorch深度学习实践》

0.2 本章内容为自主学习总结内容,若有错误欢迎指正!

1 forward(前馈运算)过程

通过输入相应的x和权重w(可能涉及bais偏置量)从而得到结果z,再通过loss计算出z与真实值之间的差距。这个过程称为forward前馈运算。在这个过程中,我们会计算z对x和z对w的偏导数。

 

2 back propagation反向传播(BP算法)过程

用最后的loss函数对z求偏导数,再与前馈运算得出的偏导数进行链式法则,从而得出loss函数对x的偏导和对w的偏导。这个过程叫做反向传播。(图中红线部分)

 3 激活函数的作用

3.1 不使用激活函数时,表达式不断进行线性变换,无论有多少层网络,最终表达式都会变成y=wx+b的形式。即1层网络和n层网络没有任何区别,每层增加的权重则没有意义。

 3.2 为了解决3.1的问题,我们对每一层的结果通过激活函数进行非线性变换

 4 前馈运算和反向传播实例流程图

通过前馈和BP的结果,再进行梯度下降优化,最终找到最优w值。 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值