5分钟NLP:Python文本生成的Beam Search解码

e8086c453c03fedcaa5e22b2418fcdbf.png

来源:Deephub Imba
本文约800字,建议阅读5分钟本文介绍了Python文本生成的Beam Search的解码。

贪婪搜索是在每个时间步中选择概率最高的单词,也是我们最常用的一种方法,Beam Search不取每个标记本身的绝对概率,而是考虑每个标记的所有可能扩展。然后根据其对数概率选择最合适的标记序列。

e767c331bd0ad185c480479b9e87cd18.png

例如令牌的概率如下所示:

b50c43824e15f3e41360a5f72d80558e.png

例如,Pancakes + looks时间段1的概率等效于:

 
 
Pancakes looks so = log(0.2) + log(0.7)= -1.9
Pancakes looks fluffy = log(0.2) + log(0.3)= -2.8

所以我们需要定义一个函数来完成整句的概率计算:

 
 
import torch.nn.functional as F
def log_probability_single(logits, labels):
  logp = F.log_softmax(logits, dim=-1)
  logp_label = torch.gather(logp, 2, labels.unsqueeze(2)).squeeze(-1)
  return logp_label
def sentence_logprob(model, labels, input_len=0):
  with torch.no_grad():
      result = model(labels)
      log_probability = log_probability_single(result.logits[:, :-1, :],
                                                labels[:, 1:])
  sentence_log_prob = torch.sum(log_probability[:, input_len:])
  return sentence_log_prob.cpu().numpy()

接下来,可以将其应用于贪婪搜索解码方法生成的输出,并计算生成的序列的对数概率。

在此示例中,我将在村上春木的书中简要介绍:1Q84。

 
 
input_sentence = "A love story, a mystery, a fantasy, a novel of self-discovery, a dystopia to rival George Orwell’s — 1Q84 is Haruki Murakami’s most ambitious undertaking yet: an instant best seller in his native Japan, and a tremendous feat of imagination from one of our most revered contemporary writers."


max_sequence = 100
input_ids = tokenizer(input_sentence,
                    return_tensors='pt')['input_ids'].to(device)
output = model.generate(input_ids, max_length=max_sequence, do_sample=False)


greedy_search_output = sentence_logprob(model,
                                      output,
                                      input_len=len(input_ids[0]))
print(tokenizer.decode(output[0]))

我们可以看到生成的序列的对数概率为-52.31。

73b5b13592b22957b01c1e9742419b2c.png

现在,我们将并比较通过Beam Search生成的序列的对数概率得分,得分越高潜在结果越好。

我们可以增加n-gram惩罚参数no_repeat_ngram_size,这有助于减少输出中的重复生成的序列。

 
 
beam_search_output = model.generate(input_ids,
                                  max_length=max_sequence,
                                  num_beams=5,
                                  do_sample=False,
                                  no_repeat_ngram_size=2)
beam_search_log_prob = sentence_logprob(model,
                                      beam_search_output,
                                      input_len=len(input_ids[0]))
print(tokenizer.decode(beam_search_output[0]))
print(f"\nlog_prob: {beam_search_log_prob:.2f}")

输出如下:

9de9faf497b9ab6eb780084dc84033cd.png

分时和连贯性要比贪婪的方法好很多,对吧。

编辑:王菁

校对:林亦霖

b7323aa617ee1a7df19423160523ca03.png

56e50819572096b711c86dd5094328c6.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值