Pytorch入门学习(三)---- NN包的使用

本文介绍了PyTorch入门学习的第三部分,重点讲解了如何使用NN包,包括查看网络层的权重信息、输出与梯度输出。通过设置前向和反向传播的hook,详细阐述了在PyTorch中如何操作和观察神经网络层的状态。
摘要由CSDN通过智能技术生成

pytorch和torch的对比。pytorch将所有的Container都用autograd替代。这样的话根本不需要用ConcatTableCAddTable之类的。直接用符号运算就行了。
output = nn.CAddTable():forward({input1, input2}) 直接用output = input1 + input2 就行。真简单。
从下图看出,pytorch的网络模块只有.weight.bias。而那些梯度.gradInput.output都被消除。

这里写图片描述

例子:

import torch
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F


class MNISTConvNet(nn.Module):

    def __init__(self):
        # this is the place where you instantiate all your modules
        # you can later access them using the same 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值