题目
padding_idx学习
解释
Embedding类
参数 | 含义 |
---|---|
padding_idx (int, optional) | If specified, the entries at :attr:padding_idx do not contribute to the gradient; therefore, the embedding vector at :attr:padding_idx is not updated during training, |
i.e. it remains as a fixed “pad”. For a newly constructed Embedding,the embedding vector at :attr:padding_idx
will default to all zeros,but can be updated to another value to be used as the padding vector. |
什么意思呢?
意思就是padding_idx默认为None,如果指定的话,则padding_idx对应的参数不会对梯度产生影响,因此在padding_idx处词嵌入向量在训练过程中不会被更新。
举例
# 原段落有有5个单词,分别为
# index : word
# 0 hello
# 1 world
# 2 morning
# 3 goodbye
# 4 sunshine
case1:padding_idx=None
#index=[0,1,2,3,4]分别代表上述单词
seq = torch.tensor([0,1,2,3,4])
# 创建一个词嵌入模型embed,输入单词数为5,每个单词用3个向量表示
embed = nn.Embedding(5,3,padding_idx=None)
word_embed = embed(seq)
print(f"默认情况下的padding_idx:\n{word_embed}")
case2:padding_idx=0
#index=[0,1,2,3,4]分别代表上述单词
seq = torch.tensor([0,1,2,3,4])
# 创建一个词嵌入模型embed,输入单词数为5,每个单词用3个向量表示
embed = nn.Embedding(5,3,padding_idx=0)
word_embed = embed(seq)
print(f"padding_idx=0:\n{word_embed}")
case3:padding_idx=3
#index=[0,1,2,3,4]分别代表上述单词
seq = torch.tensor([0,1,2,3,4])
# 创建一个词嵌入模型embed,输入单词数为5,每个单词用3个向量表示
embed = nn.Embedding(5,3,padding_idx=3)
word_embed = embed(seq)
print(f"padding_idx=0:\n{word_embed}")
结论:
从这里可以看出padding_idx的作用是使得对应单词的词向量表示为0,比如padding_idx=0,它是让hello代表的词向量表示为0
case4:padding_idx=3,将单词顺序变化
#index=[0,1,2,3,4]分别代表上述单词,将goodbye和sunshine位置调换
seq = torch.tensor([0,1,2,4,3])
# 创建一个词嵌入模型embed,输入单词数为5,每个单词用3个向量表示
embed = nn.Embedding(5,3,padding_idx=3)
word_embed = embed(seq)
print(f"padding_idx=3:\n{word_embed}")
由此更可以确凿是与单词的index有关,而不是与seq本身固有的index有关。