TensorLayer官方中文文档1.7.4:API – 激活函数


所属分类: TensorLayer

API - 激活函数

为了尽可能地保持TensorLayer的简洁性,我们最小化激活函数的数量,因此我们鼓励用户直接使用
TensorFlow官方的函数,比如
tf.nn.relu, tf.nn.relu6, tf.nn.elu, tf.nn.softplus,
tf.nn.softsign 等等。更多TensorFlow官方激活函数请看
这里.

自定义激活函数

在TensorLayer中创造自定义激活函数非常简单。

下面的例子实现了把输入乘以2。对于更加复杂的激活函数,你需要用到TensorFlow的API。

def double_activation(x):
    return x * 2

identity(x[, name]) The identity activation function, Shortcut is linear.
ramp([x, v_min, v_max, name]) The ramp activation function.
leaky_relu([x, alpha, name]) The LeakyReLU, Shortcut is lrelu.
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值