Pytorch nn.Linear() 使用示例

17 篇文章 0 订阅
12 篇文章 0 订阅

由于我之前一直用Keras,感觉Keras中的Dense()层非常好用,可以非常方便地进行全连接操作。这次需要用到Pytorch中的全连接层,一开始还不太会用,但是仔细研究后发现,其实两者殊途同归,方法很相似。

当我们需要将形如[batch_size, 18, 1, 1]的张量全连接操作后分别得到[batch_size, 18, 16][batch_size,1]的张量,该如何操作呢?

[batch_size, 18, 16]

class my_network(nn.Module):
    def __init__(self):
        super(my_network, self).__init__()
        self.fc = nn.Linear(1, 16)
	def forward(self, inputs): 
		x = x.view(inputs, 18, 1) # 先进行维度压缩,将输入的[batch_size, 18, 1, 1]变为[batch_size, 18, 1]
		A = self.fc(x) # 全连接后,维度变为[batch_size, 18, 16]
		return A

[batch_size, 1]

class my_network(nn.Module):
    def __init__(self):
        super(my_network, self).__init__()
        self.fc = nn.Linear(18, 1)
	def forward(self, inputs): 
		x = x.view(inputs, 18) # 先进行维度压缩,将输入的[batch_size, 18, 1, 1]变为[batch_size, 18]
		A = self.fc(x) # 全连接后,维度变为[batch_size, 1]
		return A
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值