plot函数_6. PyTorch常用激活函数(层)

d92eac8a6d6cb6922e6bd3100f988eda.png

Sigmoid() function:

Tanh() function:

Softplus() function:

ReLU() function:

# -*- coding: utf-8 -*-
"""
Created on Fri Jul 10 11:27:42 2020

@author: Leao
"""

import torch
import matplotlib.pyplot as plt

#%%
# Sigmoid() 函数
x = torch.linspace(-6, 6, 100)
sigmoid = nn.Sigmoid() # 从nn模块中调入Sigmoid()层,在nn.functional中有对应的函数
y_sigmoid = sigmoid(x)

# Visualize
plt.figure(figsize=(6, 6))
plt.plot(x.data.numpy(), y_sigmoid.data.numpy(), "o-")
plt.title("Sigmoid")
plt.grid()


#%%
# Tanh() 函数
x = torch.linspace(-6, 6, 100)
tanh = nn.Tanh() # 从nn模块中调入Tanh()层,在nn.functional中有对应的函数
y_Tanh = tanh(x)

# Visualize
plt.figure(figsize=(6, 6))
plt.plot(x.data.numpy(), y_Tanh.data.numpy(), "o-")
plt.title("Tanh")
plt.grid()


#%%
# Softplus() 函数
x = torch.linspace(-6, 6, 100)
softplus = nn.Softplus() # 从nn模块中调入Tanh()层,在nn.functional中有对应的函数
y_softplus = softplus(x)

# Visualize
plt.figure(figsize=(6, 6))
plt.plot(x.data.numpy(), y_softplus.data.numpy(), "o-")
plt.title("Softplus")
plt.grid()


#%%
# ReLU() 函数
x = torch.linspace(-6, 6, 100)
relu = nn.ReLU() # 从nn模块中调入Tanh()层,在nn.functional中有对应的函数
y_relu = relu(x)

# Visualize
plt.figure(figsize=(6, 6))
plt.plot(x.data.numpy(), y_relu.data.numpy(), "o-")
plt.title("ReLU")
plt.grid()

f388d69ff5ae6817b4dd60cfc5b87331.png

a008a865dd291ba7285815e4dfd3c700.png

69a7b91f428325a64481743bfb97fe09.png

842775053b2331a9b548d883e3b0f54c.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值