查看embedding内容的方法

本文介绍了在PyTorch中如何创建和使用embedding层。通过`nn.Embedding`可以自动学习词的权重,参数包括词个数和每个词的嵌入维度。若已有预训练权重,可使用`from_pretrained`加载。讲解了`Embedding.weight`属性及其尺寸。
摘要由CSDN通过智能技术生成

pytorch

需要学习权重: embeddings = nn.embedding(词个数,embedding_size)

预先知道权重/使用预训练权重 :  embeddings = nn.embedding.from_pretrained(pre_weight)

nn.embedding(num_embeddings,embedding_dim)  可以自动学习每个词对应的权重

num_embeddings : 词嵌入字典大小,即我们的数据里有多少个词

embedding_dim : 每个词嵌入向量的大小,也就是代码里经常出现的embedding_size

Embedding.weight的大小是(num_embeddings,embedding_dim)

word_to_ix = {'hello': 0, 'world': 1}   # 论文里说的每个词先是one-hot表示
embeds = nn.Embedding(2, 5)  # [总共有多少个词,每个词的embedding_size]

hello_idx = torch.LongTensor([word_to_ix['hello']])  # 想要访问某个词的embedding

# 特别注意一下我们需要Variable,因为我们需要访问nn.Embedding里面定义的元素,并且word embeding算是神经网络里面的参数,所以我们需要定义Variable。
hello_idx = Variable(hello_idx) #  这里得到hello这个词的index

hello_embed = embeds(hello_idx)  # 得到初始词向量hello的embedding表示
print(hello_embed)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值