torch学习笔记3.1:实现自定义模块(lua)

在使用torch时,如果想自己实现一个层,则可以按照《torch学习笔记1:实现自定义层》 中的方法来实现。但是如果想要实现一个比较复杂的网络,往往需要自己实现多个层(或类),并且有时可能需要重写其他模块中已有的函数来达到自己的目的,如果还是在nn模块中添加,会比较混乱,并且不利于本地git仓库统一管理,这个时候,我们可以自己实现一个像nn一样的模块,在代码中使用时 require即可。

我们来实现一个名为nxn的自定义模块,以及它的cuda版本cunxn模块,其中包含一个自定义的Hello类(lua实现),ReLU类(分别用CPU和GPU实现)。

由于篇幅原因,这里把torch自定义模块的lua实现,cpu实现,gpu实现分别写一篇文章,本文先介绍lua实现的Hello类。

1 总目录结构

模板源代码可在我的资源中下载。

.../myproj/
      |----scripts/
           |---- demo.lua
      |----nxn/
           |---- CMakeLists.txt
           |---- nxn-scm-1.rockspec
           |---- init.lua
           |---- init.c
           |---- ReLU.lua
           |---- Hello.lua
           |---- generic/
                 |---- ReLU.c
           |---- test/
                 |---- test.lua
      |----cunxn/
           |---- CMakeLists.txt
           |---- cunxn-scm-1.rockspec
           |---- init.lua
           |---- init.cu   
           |---- ReLU.cu
           |---- test/
                 |---- test.lua                

2 使用

  1. 成功安装了torch。
  2. 在nxn目录下运行
luarocks make nxn-scm-1.rockspec
  1. 在cunxn目录下运行
luarocks make cunxn-scm-1.rockspec
  1. 在scripts目录下运行
th demo.lua
  1. 输出
    result

3 文件说明

demo.lua

是使用自定义类的示例代码。

require 'cunxn'

local module = nxn.Hello()
module:updateOutput()

input = torch.rand(3,3)
print(input)

local module = nxn.ReLU(false)
output = module:updateOutput(input)
print(output)

cutorch.setDevice(2)
input = input:cuda()
print(input)

local module = nxn.ReLU(true)
output = module:updateOutput(input)
print(output)

CMakeLists.txt

一般和nn之类的模块没有太大区别,仿照着写即可,需要注意的是以下几句:

......
# 编译时从init.c找cpu实现的代码文件
SET(src init.c) 
# 指定要编译的lua文件
FILE(GLOB luasrc *.lua)
SET(luasrc ${luasrc} test/test.lua)
# 把cpp和lua文件加入模块nxn
ADD_TORCH_PACKAGE(nxn "${src}" "${luasrc}")
# 链接lua库
TARGET_LINK_LIBRARIES(nxn luaT TH)
......

nxn-scm-1.rockspec

注意dependencies里面还可以添加已有模块,比如nn,cunn,格式如下:

......
dependencies = {
   "torch >= 7.0",
   "cunn",
   "nn"
}
......

init.lua

内容如下,要include自定义类的lua文件,以及这里把cpp实现编译成了一个lib,也要添加进来。

require('torch')
require('libnxn')

include('ReLU.lua')
include('Hello.lua')

Hello.lua

自定义类的文件,该类由lua实现,这里提供一个简单的模板。

local Hello = torch.class('nxn.Hello')

function Hello:__init()
end

function Hello:updateOutput()
   print("hello in updateOutput")
end

function Hello:updateGradInput(input, gradOutput)
   print("hello in updateGradInput")
end

未完,后续说明见 CPU实现,GPU实现。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在 PyTorch 中,我们可以通过继承 `nn.Module` 实现自定义模块。下面是一个简单的例子,展示了如何实现一个简单的全连接层模块。 ```python import torch.nn as nn class MyLinear(nn.Module): def __init__(self, input_size, output_size): super(MyLinear, self).__init__() self.weight = nn.Parameter(torch.Tensor(output_size, input_size)) self.bias = nn.Parameter(torch.Tensor(output_size)) nn.init.xavier_uniform_(self.weight) nn.init.zeros_(self.bias) def forward(self, x): x = x.view(x.size(0), -1) # 将输入数据展平,以适应全连接层 out = torch.mm(x, self.weight.t()) + self.bias return out ``` 在上述代码中,我们定义了一个名为 `MyLinear` 的自定义模块,该模块继承自 `nn.Module` 。我们在 `__init__` 方法中定义了模块的参数,包括权重和偏置,这些参数都是 `nn.Parameter` 型,它们会自动被注册到模型参数列表中。我们还使用 `nn.init` 模块中的函数来初始化权重和偏置。在 `forward` 方法中,我们对输入数据进行展平操作,并使用 `torch.mm` 函数进行矩阵乘法运算,最后加上偏置即可。 使用自定义模块和内置模块的方式是一致的。例如,我们可以这样使用上述定义的自定义全连接层模块: ```python import torch # 创建一个 MyLinear 实例 linear = MyLinear(784, 10) # 随机生成一个大小为 (1, 784) 的张量 x = torch.randn(1, 784) # 使用自定义模块进行前向计算 out = linear(x) print(out.size()) # 输出:torch.Size([1, 10]) ``` 这里我们创建了一个输入大小为 784,输出大小为 10 的全连接层模块,并对一个大小为 (1, 784) 的随机输入数据进行前向计算,得到了大小为 (1, 10) 的输出。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值