- 博客(4)
- 资源 (1)
- 收藏
- 关注
原创 文献阅读:Improving Multi-Task Deep Neural Networks via Knowledge Distillation for Natural Language Under
0.背景机构:微软亚洲研究院 NLP 组与 SDRG(微软雷德蒙德语音对话研究组)作者:Xiaodong Liu、Pengcheng He发布地方:arxiv面向任务:知识蒸馏论文地址:https://arxiv.org/abs/1904.09482论文代码:https://github.com/namisan/mt-dnn0.摘要尽管集成学习能够提升模型性能,且目前已被广泛地应用...
2019-05-23 10:46:36 1587
原创 文献阅读笔记-MASS: Masked Sequence to Sequence Pre-training for Language Generation
背景题目:MASS: Masked Sequence to Sequence Pre-training for Language Generation机构:微软亚洲研究院作者:Kaitao Song、Xu Tan发布地方:ICML 2019面向任务:自然语言理解任务(NLU)的学习表示论文地址:https://arxiv.org/pdf/1905.02450.pdf最新成果:WMT1...
2019-05-18 10:29:40 4425 7
原创 文献阅读:MT-DNN模型
背景机构:微软亚洲研究院 NLP 组与 SDRG(微软雷德蒙德语音对话研究组)作者:Xiaodong Liu、Pengcheng He发布地方:arxiv面向任务:自然语言理解任务(NLU)的学习表示论文地址:https://arxiv.org/abs/1901.11504论文代码(非官方):https://github.com/namisan/mt-dnn更多代码版本参见:http...
2019-05-16 18:07:01 3212
原创 NeuronBlocks使用初体验
背景在构建自然语言理解深度学习模型过程中,研究人员或者工程师们经常需要在编程细节和代码调试上花费大量精力,而不是专注于模型架构设计与参数调整。为了提升构建深度模型的效率,微软亚洲互联网工程院自然语言理解团队 (STCA NLP Group, Microsoft) 推出了开源项目 NeuronBlocks - 自然语言处理任务的模块化深度学习建模工具包,目前支持英文和中文。PS:微软亚太研发集...
2019-05-10 16:21:37 1203
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人