梯度(常见函数梯度推导,单层多层感知机梯度推导)

目录

tensorflow自动求梯度

二阶求导(初学者几乎用不到)

激活函数及其梯度

 sigmoid

Tanh

 relu

损失函数及其梯度

MSE均方差

 Softmax 求导

单层单输出感知机推导(激活函数用sigmoid) 

单层多输出感知机推导(激活函数用sigmoid)

推出隐藏层表达式(链式求导)

逐层类推 反向传播

二维函数极小值求解实战

fashion-mnist


梯度:各个变量的偏导组成的向量 

tensorflow自动求梯度

计算过程封装到这里面

 正常计算完梯度后会自动释放(因为占GPU显存),如果想调用两次求梯度要传一个参数进去

建议及时释放资源

with tf.GradientTape(persistent=True) as tape:

二阶求导(初学者几乎用不到)

激活函数及其梯度

 sigmoid

解决 阶梯激活函数无法求导的问题,出现了sigmoid函数,导数是已知的

 sigmoid函数致命缺陷:无穷的时候导数趋近于0,出现梯度弥散

Tanh

 relu

广泛使用 适合深度学习

损失函数及其梯度

MSE均方差

tape.watch([w,b])  指定要观测的变量,运算过程中需要对w和b求导

如果w直接定义成tf.Variable()则不需要加tape.watch

 Softmax 求导

放缩后,差距更大

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值