非线性激活函数之nn.ReLU和nn.Sigmoid

以非线性激活函数nn.ReLU和nn.Sigmoid介绍非线性激活函数的用法
参数inplace表示是否改变原来的值,例如nn.ReLu(input, inplace= Ture) 表示input的值会改变
而nn.ReLu(input, inplace= False) 表示input的值不会改变,可以让output值接收,例如:
output = n.ReLu(input, inplace= False) 此时input为原值,而output接收处理后的值
建议设置inplace = False, 以免丢失原始数据
# 以非线性激活函数nn.ReLU和nn.Sigmoid介绍非线性激活函数的用法
# 参数inplace表示是否改变原来的值,例如nn.ReLu(input, inplace= Ture) 表示input的值会改变
# 而nn.ReLu(input, inplace= False) 表示input的值不会改变,可以让output值接收,例如:
# output = n.ReLu(input, inplace= False) 此时input为原值,而output接收处理后的值
# 建议设置inplace = False, 以免丢失原始数据

import torch.nn as nn
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter


class My_class(nn.Module):
    def __init__(self):
        super(My_class, self).__init__()
        self.relu1 = nn.ReLU(inplace=False)
        self.sigmoid1 = nn.Sigmoid()

    def forward(self, input):
        output = self.sigmoid1(input)
        return output


writer = SummaryWriter('nn_nonlact')

data_input = torchvision.datasets.CIFAR10('dataset', train=False, transform=torchvision.transforms.ToTensor(),
                                          download=True)
data_loader = DataLoader(data_input, batch_size=64, drop_last=True)

my_nn = My_class()

step = 0
for data in data_loader:
    imgs, targets = data
    writer.add_images('input', imgs, step)
    # 采用sigmoid处理
    out_put = my_nn(imgs)
    writer.add_images('output', out_put, step)
    step += 1

writer.close()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值