小土堆的p22sequential,学习笔记

前面几天,在微信读书上找了一些深度学习的书看,找了很久看到一本两个日本人写的一本书叫深度学习的数学,讲的很不错,粗略的看了一遍,初步了解了神经网络的模型,打算买一本他的实体书仔细读一遍,最近自己敲代码就少了,都在研究那本书了,下面的代码有什么函数的用法不明白的可以参考我之前的文章,自己写文章主要是为了自己有更深的理解,其次就是帮助别人

先附上今天自己实现的代码

import torch
from torch.nn import Module, Sequential
from torch.nn import Conv2d,Linear,MaxPool2d,Flatten
from torch.utils.tensorboard import SummaryWriter
class MySquential(Module):
    def __init__(self):
        super(MySquential, self).__init__()
        #sequential类似于transformers中的compose,将所有的层整合在一起
        self.sequential=Sequential(
            Conv2d(3,32,5,padding=2),#这里的padding需要计算,去pytorch官网找到那个公式代入计算一下
            MaxPool2d(2),
            Conv2d(32,32,5,padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(),#将一个矩阵展平
            Linear(1024,64),
            Linear(64,10)
        )
"""
先用5核卷积,再用2核池化,持续三次,将特征展平,线性化两次,得到十个结果
"""
    def forward(self,input):
        output=self.sequential(input)
        return output
input=torch.ones(64,3,32,32)
sequential=MySquential()
destination=sequential(input)
writer=SummaryWriter("logs")
writer.add_graph(sequential,input)#输入参数是自己写的一个神经网络的类和输入类的数据,生成一个类似思维导图的东西
writer.close()

运行结果,控制台输入tensorboard --logdir=logs,打开链接

a5418ef956f54bc882646d338f68b5c1.png

  • 14
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值