【Tensorflow2.x学习笔记】- 反向传播算法

本文详细介绍了Tensorflow2.x中反向传播算法的原理,包括导数与梯度的概念,Sigmoid、ReLU、LeakyReLU和Tanh等激活函数的导数,以及均方误差和交叉熵损失函数的梯度计算。同时,讨论了全连接层中单神经元和整个层的梯度计算,最后简要提及反向传播算法的实现步骤。
摘要由CSDN通过智能技术生成

1.导数与梯度

导数定义:自变量x产生一个微小扰动△x后,函数输出值的增量△y与自变量增量△x的比值在△x趋于0时的极限a,如果存在,a即为在x处的导数:

函数的导数记为:

从几何角度看,一元函数在某处的导数就是函数的切线在此处的斜率,即函数值沿着x方向的变化率 。

导数本身是标量,没有方向。但是导数表征了函数值在某个方向△x上的变化率。在这些任意△x方向中,沿着坐标轴的几个方向比较特殊,此时的导数也叫做偏导数偏导数是导数的特例,也没有方向

利用梯度下降法优化网络时,需要求出网络的所有偏导数。把函数的所有偏导数写成向量形式:

 这篇链接加深理解:CSDN反向传播算法​​​​​​​

此时梯度下降算法可以沿着向量形式进行更新:

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值