pytorch构建自己设计的层

下面是如何自己构建一个层,分为包含自动反向求导和手动反向求导两种方式,后面会分别构建网络,对比一下结果对不对。

 

 

 

----------------------------------------------------------

关于Pytorch中的结构层级关系。

最为底层的是torch.relu()、torch.tanh()、torch.ge()这些函数,这些函数个人猜测就是直接用Cuda写成的,并且封装成了python接口给python上层调用。

部分函数被torch.nn.functional里面的部分函数模块调用。这些函数可能会被更为上层的nn.Module调用。

下面以BatchNormalization为例进行分析。

最为底层的是torch.batch_norm()这个函数,是看不到源代码的,应该是对于cuda代码的封装。这个函数会传入(input, weight, bias, running_mean, running_var, training, momentum, eps)。 再往上时torch.nn.functional里面的函数bacth_norm()。再往上就是torch.nn里面的网络层,比如,BatchNorm2d()等等。

分析一下BatchNorm2d()里面的主要程序。

 

import torch
import torch.nn as nn
from torch.nn import init
from torch.nn.parameter import Parameter

class BatchNorm(nn.module):
    def __init__(self,num_features):
        super(BatchMMNorm,self).__init__()
        self.weight = Parameter(torch.Tensor(num_features))
        self.bias = Parameter(torch.Tensor(num_features))        
        
    def reset_parameter(self):
        init.uniform_(self.weight)
        init.zeros_(self.bias)

  def forward(self,input):

 

其中Parameter是用以定义可学习的权重参数的,后面还需要初始化参数。

 

 

 

 

 

 

 

转载于:https://www.cnblogs.com/yanxingang/p/10414693.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值