TensorFlow2.0基础04 梯度,求导

目录

 

Gradient梯度、求导

一阶求导

二阶求导

激活函数(对输出值进行处理)

softmax

SIGMOD函数(处理二分类)

TANH函数

relu函数(减少梯度离散与爆炸)

tf.nn.relu

误差函数

 

mse(MEAN SQUARE ERROR)均方差

对均方差类型的误差函数求导

反向传播链式法则(重要)

himmlblau函数优化实例

 


Gradient梯度、求导

一阶求导

Y要放到with里面,当想多次求导是,要将persisrent属性设置为True

二阶求导

二层with就可

激活函数(对输出值进行处理)

softmax

针对输出结果,扩大结果之间的差距,比如2本来是1的2倍,经过softmax后变为3.5倍

softmax求导

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值