NLP
ManicFrank
这个作者很懒,什么都没留下…
展开
-
【转载】BERT相关论文、文章和代码资源汇总
原文来自:我爱自然语言处理 的BERT相关论文、文章和代码资源汇总 BERT最近太火,蹭个热点,整理一下相关的资源,包括Paper, 代码和文章解读。 1、Google官方: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 一切始于10月Google祭出的这篇Paper, 瞬间引爆整个AI圈包括自媒体圈: Github: https://github.com/google-researc原创 2020-11-27 17:08:01 · 324 阅读 · 0 评论 -
【转载】AAAI 2020 | 基于多任务自监督学习的文本顺滑研究
【转载】AAAI 2020 | 基于多任务自监督学习的文本顺滑研究 原文地址:https://www.jiqizhixin.com/articles/2020-01-14-3 论文名称:Multi-Task Self-Supervised Learning for Disfluency Detection 论文作者:王少磊,车万翔,刘琦,秦鹏达,刘挺,王威廉 原创作者:王少磊 下载链接:http://ir.hit.edu.cn/~slwang/AAAI-WangS.1634.pdf 1、文本顺滑任务简介 自转载 2020-11-23 11:05:57 · 535 阅读 · 0 评论