一个小的神经网络结构

一个小的神经网络结构

我对神经网络代码结构不太了解,于是尝试写了一个小的神经网络,网络本身没有什么意义,只是希望理清一些数据结构和网络功能。代码:

import torch
import torch.nn as nn
class mymodel(nn.Module): #网络结构
    def __init__(self):
        super(mymodel, self).__init__()
        self.model1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024, 64),
            Linear(64, 10)
        )
        
    def forward(self, x):
        x = self.model1(x)
        return x

model = mymodel()    
x = torch.randn(1,3,32,32)
x = model(x)
print(x)

class myloss(nn.Module): #bias是在__init__中定义的超参数
    def __init__(self, bias = False):
        super(myloss, self).__init__()
        self.bias = bias

    def forward(self, x, y):
        loss = x * y + self.bias
        return loss

loss = myloss()
y = torch.randn(1)
y = y.unsqueeze(0)
print(y)
myloss = loss(x,y)
print(myloss)

这里mymodel类是网络主干结构,说明了网络有几层、每层是什么结构,以及指定了前向传播过程;myloss类是损失函数,说明了网络用到的损失函数有几个参数,以及损失函数是如何定义的。这两个类都继承了父类nn.Module。输出:

tensor([[-0.0439, -0.1495,  0.0858, -0.0517,  0.1106, -0.0300, -0.0413, -0.0078,
         -0.0511, -0.0757]], grad_fn=<AddmmBackward0>)
tensor([[-1.7011]])
tensor([[ 0.0747,  0.2543, -0.1459,  0.0879, -0.1881,  0.0510,  0.0702,  0.0132,
          0.0870,  0.1287]], grad_fn=<AddBackward0>)

可逐一验证(如:-0.0439×(-1.7011)=0.0747),所以输出是合理的。这里超参数bias默认False,如果想自定义bias(比如为1),则只需要修改:

loss = myloss(1)

重新输出:

tensor([[-0.1065, -0.1594, -0.2015,  0.0609, -0.1833, -0.0479,  0.0011, -0.0898,
          0.0312, -0.1229]], grad_fn=<AddmmBackward0>)
tensor([[0.9886]])
tensor([[0.8947, 0.8424, 0.8008, 1.0602, 0.8188, 0.9527, 1.0010, 0.9113, 1.0308,
         0.8785]], grad_fn=<AddBackward0>)

也可逐一验证(如: -0.1065×0.9886+1=0.8947),从而输出也是合理的。
另外,forward函数里也可以加上带有默认值的参数,如:

class myloss(nn.Module): #bias是在__init__中定义的超参数
    def __init__(self, bias = False):
        super(myloss, self).__init__()
        self.bias = bias

    def forward(self, x, y, z = False): #z带有默认值False
        loss = x * y + self.bias + z
        return loss

如果传入z=1,只需修改

myloss = loss(x,y,1)

即可。这样以后就方便看懂和重写一些神经网络了。

  • 12
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值