神经网络后向传播算法学习笔记

这篇博客探讨了神经网络后向传播算法的优势,基于对计算图的链式求导法则的应用。作者通过解释为什么从后往前求导以及其在机器学习中的优势,帮助读者理解这一关键算法。
摘要由CSDN通过智能技术生成

本文是我在学习机器学习过程中查看论文和博客学习的结果如有问题请赐教。

1.引言

    如果我们之前对后向传播算法有一点点了解的话就知道其本质是一个高数中的链式求导法则。但是在我开始学习的时候我一直郁闷为什么要从后往前求导,不能直接求导吗?从后往前求导有什么优势吗?所以本文我们先解释一下为什么要从后往前求导以及其存在的优势是什么。

2 .后向传播算法的优势

   本小节对后向传播算法优势的介绍主要是对博客Calculus on Computational Graphs:Backpropagation的理解翻译。

2.1.计算图

 计算图是一种很好的方法来表示数学表达式,例如数学中的表达式e=(a+b)*(b+1)这个表达式有三个操作两个加法和一个乘法。为了便于我们解说我们引入中间变量c、d。这样我们可以把表达式e转变成e=c*d、
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值