论文阅读_中文NLP_ELECTRA

  • 介绍:ELECTRA由Manning联合谷歌发布,后来哈工大讯飞联合实验室训练了相应的中文模型。精减后的模型效果和BERT差不太多,而模型大小只有BERT的1/10,ELECTRA-small 只有46M。
  • 代码&模型下载&详细说明:https://github.com/ymcui/Chinese-ELECTRA
  • 使用:LTP使用它为基础模型。
  • 原理:使用生成对抗网络训练自然语言模型,时间短,参数少。模型分为两部分:生成器和判别器,生成实现MLM,判别器用于识别每一个单词是否为模型生成。
  • 效果:以中文阅读理解为例,其效果对比如下,其它实验详见github

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值