关于transformer 学习、torch_geometric

1、nn.TransformerEncoder

nn.TransformerEncoder 是 PyTorch 中的一个模块,用于构建 Transformer 模型中的编码器。Transformer 是一种强大的序列到序列模型,广泛应用于自然语言处理的各个领域。

nn.TransformerEncoder 中,我们可以定义多个 nn.TransformerEncoderLayer,每个 nn.TransformerEncoderLayer 包含了多头自注意力机制、残差连接和前向神经网络等组件。这些组件组成了 Transformer 编码器的基本结构,并且可以通过简单的复制来构建深度更高、参数量更大的编码器。

在使用 nn.TransformerEncoder 时,我们需要将输入序列作为一个三维张量传入。具体来说,输入的形状应该是 (seq_len, batch_size, input_dim),其中 seq_len 表示输入序列的长度,batch_size 表示每个 batch 中包含的样本数,input_dim 表示输入特征的维度。

经过 nn.TransformerEncoder 处理后,输出也是一个三维张量,其形状与输入相同,即 (seq_len, batch_size, input_dim)。该输出可作为下游任务的特征表示或直接作为预测结果。

2、torch_geometric是一个专门用于图神经网络的PyTorch库,提供了多种用于图学习的模型、层和函数。以下是一些在torch_geometric.nn模块中可用的常见

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值