土堆学习笔记——P20非线性激活

本文介绍了如何在PyTorch中使用ReLU和Sigmoid非线性激活函数,并讨论了inplace特性。通过实例展示了如何创建一个包含ReLU层的模块,以及非线性变换在网络模型中的作用,强调非线性越多有助于训练更复杂的模型。
摘要由CSDN通过智能技术生成

Non-linear Activate非线性激活
两个非线性的函数
例如
ReLu
在这里插入图片描述

Sigmoid
在这里插入图片描述代码中有一个inplace,其实就是新的值会不会覆盖输入数据,默认是False,我们一般也不变在这里插入图片描述ReLU的代码

import torch
from torch import nn
from torch.nn import ReLU


input = torch.tensor([[1,-0.5],[-1,3]])

input = torch.reshape(input, (-1,1,2,2))
print(input.shape)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.relu1= ReLU()

    def forward(self,input):
        output = self.relu1(input)
        return output
    
tudui = Tudui()
output = tudui(input)
print(output) #tensor([[[[1., 0.],
         							 #[0., 3.]]]])

也可以加图片用tensorboard看,具体就没抄

非线性变化的作用

给网络中引入一些非线性的特征,非线性越多才能训练出更多符合各个曲线或特征的模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值