Pytorch深度学习-神经网络-非线性激活(小土堆)

ReLU
  1. API
torch.nn.ReLU(inplace=False
  1. 参数
inplace (bool) – 可以选择就地执行操作。默认值: `False`,即是否对原来的值进行替换还是作为返回值
  1. 代码示例
import torch  
import torch.nn as nn  
from torch.nn import ReLU  
  
input = torch.tensor([[1,-0.5],  
                      [-1,3]])  
  
input = torch.reshape(input,(-1,1,2,2))  
  
class relu_test(nn.Module):  
    def __init__(self, *args, **kwargs) -> None:  
        super().__init__(*args, **kwargs)  
        self.relu1 = ReLU(inplace=False)  
  
    def forward(self,input):  
        output = self.relu1(input)  
        return output  
  
test = relu_test()  
  
output = test(input)  
  
print(output)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值