pytorch学习(九)激活函数

1.pytorch常用激活函数如下:

#ReLU激活函数
#Leaky ReLU激活函数
#Sigmoid激活函数
#Tanh激活函数
#Softmax激活函数
#Softplus

2.代码

import torch.nn as nn
import torch
import numpy
from torch.utils.tensorboard import SummaryWriter

writer = SummaryWriter("logs")

input = torch.arange(-10,10,dtype=float)

#ReLU激活函数
relu = nn.ReLU()
output_relu = relu(input)

#Leaky ReLU激活函数
LeakyReLU=nn.LeakyReLU()
output_LeakyReLU = LeakyReLU(input)

#Sigmoid激活函数
Sigmoid = nn.Sigmoid()
output_Sigmoid = Sigmoid(input)

#Tanh激活函数
Tanh = nn.Tanh()
output_Tanh = Tanh(input)

#Softmax激活函数
Softmax = nn.Softmax(dim=0)
output_Softmax = Softmax(input)


Softplus = torch.nn.Softplus()
output_Softplus = Softplus(input)

for i in range(len(input)):
    writer.add_scalar('Relu',output_relu[i],input[i])
    writer.add_scalar('LeakyReLU',output_LeakyReLU[i],input[i])
    writer.add_scalar('Sigmoid',output_Sigmoid[i],input[i])
    writer.add_scalar('Tanh',output_Tanh[i],input[i])
    writer.add_scalar('Softmax',output_Softmax[i],input[i])
    writer.add_scalar('Softplus',output_Softplus[i],input[i])
    # writer.add_scalars('run_14h', {'Relu': output_relu[i],
    #                                'LeakyReLU': output_LeakyReLU[i],
    #                                'Sigmoid': output_Sigmoid[i]}, input[i])

writer.close()

3.结果显示:

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值