Tensorflow激活函数及梯度

在这里插入图片描述
在这里插入图片描述

a=tf.linspace(-10.,10.,10)
with tf.GradientTape() as tape:
    tape.watch(a)
    y=tf.sigmoid(a)
grads=tape.gradient(y,[a])
grads
[<tf.Tensor: shape=(10,), dtype=float32, numpy=
array([4.5395809e-05, 4.1859134e-04, 3.8362027e-03, 3.3258736e-02,
       1.8632649e-01, 1.8632641e-01, 3.3258699e-02, 3.8362255e-03,
       4.1854731e-04, 4.5416677e-05], dtype=float32)>]

在这里插入图片描述

 with tf.GradientTape() as tape:
    tape.watch(a)
    y=tf.tanh(a)
grads=tape.gradient(y,[a])
grads
[<tf.Tensor: shape=(10,), dtype=float32, numpy=
array([0.0000000e+00, 5.9604645e-07, 5.9604645e-05, 5.0777197e-03,
       3.5285264e-01, 3.5285199e-01, 5.0774813e-03, 5.9843063e-05,
       4.7683716e-07, 0.0000000e+00], dtype=float32)>]

relu函数
在这里插入图片描述

a=tf.linspace(-1.,1.,10)
tf.nn.relu(a)
<tf.Tensor: shape=(10,), dtype=float32, numpy=
array([0.        , 0.        , 0.        , 0.        , 0.        ,
       0.11111116, 0.33333337, 0.5555556 , 0.7777778 , 1.        ],
      dtype=float32)>
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值