- 博客(3)
- 收藏
- 关注
原创 深度学习-- > NLP -- > improving multi-task deep neural networks via knowledge distillation for natural
本次总结和分享一篇大佬推荐看的论文improving multi-task deep neural networks via knowledge distillation for natural language understanding, 论文链接MT-DNN-KD动机和创新点集成学习的方法对提高模型的泛化能力在众多自然语言理解任务上已经得到了验证但是对于多个深度模型集成而成的集成模型...
2019-05-22 21:09:25 919
原创 深度学习 -- > NLP-- > BERT
本次分享和总结自己所读的论文BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,也就是大名鼎鼎的BERT,网上对这篇论文的解读非常多,在此就提下自己浅薄的见解。论文链接 BERT论文动机以及创新点语言模型的预训练已经在自然语言处理的各项任务上取得了有目共睹的效果。目前有两种途...
2019-05-18 17:37:13 1099
原创 深度学习 -- > NLP -- >Improving Language Understanding by Generative Pre-Training
本文要分享总结的是论文Improving Language Understanding by Generative Pre-Training,论文链接openAI-GPT.论文动机以及创新点现实世界中,无标签的文本语料库非常巨大,而带有标签的数据则显得十分匮乏,如何有效利用无标签的原始文本,对缓解自然语言处理相关任务对有监督学习方式的依赖显得至关重要。有效的从无标签文本中利用超单词级...
2019-05-07 17:23:05 3659 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人