Re52:读论文 How Much Knowledge Can You Pack Into the Parameters of a Language Model?

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文名称:How Much Knowledge Can You Pack Into the Parameters of a Language Model?

ArXiv网址:https://arxiv.org/abs/2002.08910

代码和模型权重:https://github.com/google-research/google-research/tree/master/t5_closed_book_qa

本文是2020年EMNLP论文,作者来自谷歌。

本文通过无上下文/外部知识的QA任务来度量LM中储存的知识信息。实验结果证明LM的表现非常好。
(但是这个T5也经过了各种疯狂微调捏)

预训练模型:T5(包括T5.1.1)
继续预训练:Salient Span Masking (SSM)
在度量知识的下游任务上微调:QA(用text2text的T5直接回答,不太需要考虑具体的回答格式)
在这里插入图片描述
解码方案是贪心算法

注意本文实验用的QA数据不在T5预训练数据中

主实验结果:
在这里插入图片描述

有些回答说起来也算答对了,但是不完全跟标准答案一样的FP情况:
在这里插入图片描述

这篇paper的未来展望部分写得非常细致,附录里面也写了很多详细的其它尝试工作,很敬业了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

诸神缄默不语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值