反向传播的理解

本文介绍了深度学习中反向传播的基本原理,通过一个简单的神经网络例子,阐述了如何利用链式法则计算权重对整体误差的影响。作者指出中文版教程中存在错误,并提供了Python代码来辅助理解反向传播算法。文章适合初学者,旨在帮助读者克服对反向传播的畏惧感,通过实际操作加深理解。
摘要由CSDN通过智能技术生成

本文仅供个人学习记录复习所用,无其他用途。

看到一篇好文,分享记录下。

反向传播——通俗易懂_chengchaowei的博客-CSDN博客_反向传播最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果...https://blog.csdn.net/weixin_38347387/article/details/82936585

尚存疑问:

“如果我们想知道w5对整体误差产生了多少影响,可以用整体误差对w5求偏导求出”——请教下,“整体误差对w5求偏导”为什么可以表征“w5对整体误差产生了多少影响”?

若有路过大佬看到本文求指教下~👍

参考代码:

python 反向传播算法的入门教程的简单代码实现_rory_wind的博客-CSDN博客_python 反向传播代码读到了一篇讲解特别友好的博客,很适合新手学习了解后向传播算法的概念。但是原作者没有附上代码,所以我便照着教程写了份代码附上。原教程:反向传播——通俗易懂源码:import numpy as npi1=0.05#输入神经元1i2=0.10#输入神经元2b1=0.35#截距项1b2=0.60#截距项2w1=0.15w2=0.20w3=0.25w4=0.30w5=0.40w6=0.45w7=0.50w8=0.55target_o1=0.01target_o2=0.99https://blog.csdn.net/rory_wind/article/details/112505261

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值