pytorch学习笔记

这篇博客详细介绍了PyTorch中的关键概念,包括F.relu()与nn.ReLU()的区别,nn.Sequential的使用,model.eval()和model.train()的作用,以及torch张量的各种操作如max(), norm(), view(), permute(), matmul()等。此外,还提到了optimizer和学习率调度器的使用,以及如何查看模型结构和网络参数。" 104357470,8346308,MySQL数据库操作详解:数据类型与表操作,"['数据库', 'SQL语言', 'MySQL操作', '数据类型', '表创建']
摘要由CSDN通过智能技术生成

官方笔记

1.F.relu()与nn.relu()

out = F.ReLU(input)
nn.RuLU()

 F.ReLU()是函数调用,一般使用在forward函数里。而nn.ReLU()是模块调用,一般在定义网络层的时候使用。

在PyTorch中,nn.X都有对应的函数版本F.X,但是并不是所有的F.X均可以用于forward或其它代码段中,在forward中使用的F.X函数一般均没有状态参数,比如F.ReLU,F.avg_pool2d等,均没有参数,它们可以用在任何代码片段中。

2.nn.Sequential

一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。

# Example of using Sequential
        model = nn.Sequential(
                  nn.Conv2d(1,20,5),
                  nn.ReLU(),
                  nn.Conv2d(20,64,5),
                  nn.ReLU()
                )

        # Example of using Sequential with OrderedDict
        model = nn.Sequential(OrderedDict([
                  ('conv1',

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值