1. Och提出的MERT, 其论文和很多博主都说需要不断重复重复 “解码->n-best list-> weight tuning ”的过程,但是只是使用了rescore后 n-best list中得分最高的一个假设。调整了权重之后,为什么要重新解码呢?
语言中的singleton:翻译做“单件”,即只出现过一次的ngram
1. Och提出的MERT, 其论文和很多博主都说需要不断重复重复 “解码->n-best list-> weight tuning ”的过程,但是只是使用了rescore后 n-best list中得分最高的一个假设。调整了权重之后,为什么要重新解码呢?
语言中的singleton:翻译做“单件”,即只出现过一次的ngram