知识图到文本的生成——拾贰

本文深入分析了知识图谱到文本生成的评价指标,包括BLEU、ROUGE-L和METEOR的计算方法。通过对这三种评价标准的理解,详细解释了每个方法如何衡量生成文本的质量和准确性。
摘要由CSDN通过智能技术生成

2021SC@SDUSC

我们继续分析evaluate()函数的剩余的关键代码。

 final_scores = self.score(ref, hypo)

这里的final_scores保存的是最终的评价得分,根据上篇博客提到的三种评价方法。这里调用了score函数,它是Evaluate的类函数,代码如下:

    def score(self, ref, hypo):
        final_scores = {}
        for scorer, method in self.scorers:
            score, scores = scorer.compute_score(ref, hypo)
            if type(score) == list:
                for m, s in zip(method, score):
                    final_scores[m] = s
            else:
                final_scores[method] = score

        return final_scores

参数ref和hypo是两个集合,循环进行评价打分,调用compute_score函数,在三个评价方法里都有compute_score,让我们先看BLEU:

    def compute_score(self, gts, res):

        bleu_scorer = BleuScorer(n=self._n)
        for id in sorted(gts.keys())
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值