# embedding 可以理解为一个将 3 个 单词映射为一个 4 维向量的一个对应表
# 若加入 padding_idx = k, 表示的是将第 k 个单词映射为 全0向量
embedding = nn.Embedding(3, 4, padding_idx=0)
# 输出它的内容就可以看到每个单词对应的向量
print(embedding.weight, '\n')
# tensor([[ 0.0000, 0.0000, 0.0000, 0.0000],
# [ 0.3232, -1.6276, -1.7962, 0.5972],
# [-0.4621, -0.1696, 0.9661, -0.2438]], requires_grad=True)
# 我们查看第一个单词对应的向量, 用 tensor(n) 表示对应于第 n 个单词对应的向量
print(embedding(torch.tensor(1)), '\n')
# tensor([ 0.3232, -1.6276, -1.7962, 0.5972], grad_fn=<EmbeddingBackward0>)
# 我们查看一个单词组成的张量
print(embedding(torch.tensor([[0, 2], [1, 2]])))
# tensor([[[ 0.0000, 0.0000, 0.0000, 0.0000],
# [-0.4621, -0.1696, 0.9661, -0.2438]],
#
# [[ 0.3232, -1.6276, -1.7962, 0.5972],
# [-0.4621, -0.1696, 0.9661, -0.2438]]], grad_fn=<EmbeddingBackward0>)
对于torch.nn.Embedding的一个理解
最新推荐文章于 2024-02-24 13:39:25 发布