【深度学习】激活函数(sigmoid、ReLU、tanh)

目录

sigmoid 函数:

ReLU 函数:

tanh 函数: 


sigmoid 函数:

        sigmoid(x)=\frac{1}{1+e^{-x}}

        sigmoid 函数的作用原理很简单:将所有数限制在 0 ~ 1 范围内

        我们可以直接利用 torch 模块利用 sigmoid 函数处理数据:

y = torch.sigmoid(x)

        或:

y = x.sigmoid()

         我们也可以利用 matplotlib 模块更直观地观察经由 ReLU 函数处理前后的数据(图像中的数据可以自由更改):

import matplotlib.pyplot as plt
import torch

x = torch.linspace(-10,10,100)
z = x.sigmoid()
plt.subplot(1,2,1),plt.plot(x),plt.title('Normal')
plt.subplot(1,2,2),plt.plot(z),plt.title('sigmoid')
plt.show()

  


ReLU 函数:

        ReLU(x)=max(x,0)

        ReLu(rectified linear unit)函数的作用原理比 sigmoid 函数还要简单(这也是它在如今逐渐取代 sigmoid 函数的原因):非负数保留,负数归零

        我们可以直接利用 torch 模块来利用 ReLU 函数处理数据:

y = torch.relu(x)

        或: 

y = x.relu()

        我们也可以利用 matplotlib 模块更直观地观察经由 ReLU 函数处理前后的数据(图像中的数据可以自由更改):

import matplotlib.pyplot as plt
import torch

x = torch.linspace(-10,10,100)
y = pow(x,3)
z = y.relu()
plt.subplot(1,2,1),plt.plot(y),plt.title('Normal')
plt.subplot(1,2,2),plt.plot(z),plt.title('ReLU')
plt.show()


tanh 函数: 

        tanh(x)=\frac{1-e^{-2x}}{1+e^{-2x}}

        tanh 函数是双曲正切函数,它的原理也很简单,且与 sigmoid 函数很类似(它的图像形状也很像 sigmoid 函数):将所有数限制在 -1 ~ 1 范围内

        我们可以直接利用 torch 模块利用 sigmoid 函数处理数据:

y = torch.tanh(x)

        或

y = x.tanh()

        我们也可以利用 matplotlib 模块更直观地观察经由 ReLU 函数处理前后的数据(图像中的数据可以自由更改):

import matplotlib.pyplot as plt
import torch

x = torch.linspace(-10,10,100)
z = x.tanh()
plt.subplot(1,2,1),plt.plot(x),plt.title('Normal')
plt.subplot(1,2,2),plt.plot(z),plt.title('sigmoid')
plt.show()

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

六月渔烬

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值