embedding计算过程

embedding计算过程(错了跟我讲,我会改)

参考示例

https://www.jianshu.com/p/63e7acc5e890

个人理解过程图示

待上传

代码

import torch
import torch.nn as nn

num_embeddings = 7 # 至少要是7
embedding_dim = 4  

# 其实是[2,5],[5,1],[3,4],[1,6]
# and every single number is a one-hot vector,its length is num_embeddings
# finally input becomes a 3-dim vector, the third-dim length is embedding_dim
# out shape : (2,4,4)
input = torch.LongTensor([[2, 5, 3, 1], [5, 1, 4, 6]])
embedding = nn.Embedding(num_embeddings=num_embeddings, embedding_dim=embedding_dim)
out = embedding(input)

print("input:", input)
print("embedding parms:", embedding.weight)
print("out:", out)

总结(基于pytorch)

  • 总的来说,就是将独热向量的长度(对应嵌入层的num_embeddings)转变为嵌入层的emdedding_size(而独热向量的维数就是你的数据中一共产生了多少个不一样的词,至少是这么多)。

  • 数据的变化,将二维的数据(如果算上独热的那维就是三维)转变为三维的数据。前两维一样,第三维的变化如第一点所述。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值