Pytorch学习笔记系列 - 激活函数

1 什么是激活函数(activation functions)?

在神经网络中经常会提及激活函数的概念,那么什么是激活函数?为什么要使用激活函数?

激活函数是为了解决实际生活中不能使用线性方程概括的问题

那么什么是线性方程呢?举个例子来说,一道菜越好吃,那么吃的人越多,这就是一个线性问题(Linear)。

现在将例子所处的环境改成在校园中,菜越好吃,吃的人数也不能无穷增长下去,那么此时线性问题就转化为非线性问题(NonLinear),也就是函数图像将不再是一条直线,而是转化为一条曲线。

那么由线性问题转换为非线性问题就需要一种力量使其“变弯”,这种力量正是激活函数,激活函数是一类非线性函数的概括,通过激活函数处理线性函数 即可转换为非线性函数,例如relu、tanh、sigmoid,使用激活函数强行“变弯”线性函数,也就是对线性函数的结果使用激活函数处理,使得输出值也具有了非线性的特征。

但并不是所有的非线性函数都可以作为激活函数,激活函数一定是可微分的,因为在误差反向传播时需要建立误差与权重的函数,而求解函数时需要计算梯度,因此要求激活函数一定是可微分的。

2 几种常见的激活函数

下面将绘制 torch.nn.functional 库中的几种激活函数。

绘制程序如下:

import torch
import torch.nn.functional as F
from torch.autograd import Variable
import matplotlib.pyplot as plt

# 数据点
x = torch.linspace(-5, 5, 200)  
x = Variable(x)
x_np = x.data.numpy()   

#为了绘制图像,将Variable数据转换为numpy数据
y_relu = F.relu(x).data.numpy()
y_sigmoid = F.sigmoid(x).data.numpy()
y_tanh = F.tanh(x).data.numpy()
y_softplus = F.softplus(x).data.numpy() # there's no softplus in torch

# 绘图
plt.figure(1, figsize=(8, 6))
plt.subplot(221)
plt.plot(x_np, y_relu, c='b', label='relu')
plt.ylim((-1, 5))
plt.legend(loc='best')

plt.subplot(222)
plt.plot(x_np, y_sigmoid, c='b', label='sigmoid')
plt.ylim((-0.2, 1.2))
plt.legend(loc='best')

plt.subplot(223)
plt.plot(x_np, y_tanh, c='b', label='tanh')
plt.ylim((-1.2, 1.2))
plt.legend(loc='best')

plt.subplot(224)
plt.plot(x_np, y_softplus, c='b', label='softplus')
plt.ylim((-0.2, 6))
plt.legend(loc='best')

plt.show()

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

带鱼工作室

感谢您的支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值