相似度系列-5:语义方法:BERTSCORE: EVALUATING TEXT GENERATION WITH BERT

BERTSCORE: EVALUATING TEXT GENERATION WITH BERT

开头

我觉得这个方法也没有考虑到语序这个因素。在计算时,拆分的会不会有点太散了。token-to-token的相似度加权得到最终相似度。整个chunk的相似度似乎并没有得到很好的利用。word的本身语义信息在利用时,会不会在变换为token后改变了?

本文核心:计算reference和candidate中每个token之间的语义相似度(cosine similarity),选择对应的最大的相似度分值,加权得到最终的相似度值。

related works

看前人做的一些改建。
比如:n_gram_words更改为n_gram_characters
比如:n_gram_words更改为weightd n_gram-words

  1. n-grams方法
  2. 编辑距离的方法
  3. 基于嵌入的方法
  4. learned metrics (直接以人类的judgements作为评估矩阵,训练模型,使得评测矩阵接近于人类评测水平)

method

在这里插入图片描述

  1. Use different model to tokenizer the sentences
  2. cosine similarity to compute the reference token and the candidate token.
  3. compute the sum of the token similarity scores
  4. use idf as the weight to compute the final score.
  5. rescall the score (b is the lower bound—— compute b by averaging BERTSCORE
    computed on these sentence pairs.)

在这里插入图片描述
在这里插入图片描述
根据WMT18的标准做法,使用绝对皮尔逊相关度|ρ|和肯德尔等级相关度τ来评估指标质量

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值