利用nn.Module实现自定义层

(1)Flatten类

class Flatten(nn.Module):
    def __init__(self):
        super(Flatten,self).__init__()
        
    def forward(self,input):
        return input.view(input.size(0),-1)

Flatten()展平操作,进入全连接层之前使用
类才能写进nn.Sequential
nn.ReLU----class
F.relu----function

(2)自定义Linear层

class MyLinear(nn.Module):
    def __init__(self,inp,outp):
        super(MyLinear,self).__init__()
        
        self.w = nn.Parameter(torch.randn(outp,inp))
        self.b = nn.Parameter(torch.randn(outp))
        
    def forward(self,x):
        x = x @ self.w.t() + self.b
        return x

torch.tensor不会加到nn.parameter
nn.Parameter用于包装tensor,tensor会自动加到nn.parameter,自动被优化nn.Parameter自动将requires_grad设置为true

(3)学习文章
nn.Parameter()讲解
十、定义Flatten类&十一、将参数加到模型里去

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值