自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

XiangJiaoJun_的博客

一直在成长中~~~~ 个人主页 https://hongbb.top

  • 博客(2)
  • 收藏
  • 关注

原创 NLP任务增强:通过引入外部知识库来提供额外信息

文章目录前言当推荐系统遇上知识图谱模型结构引入知识方法当文本匹配遇上知识图谱模型结构引入知识方法当预训练模型遇上知识图谱模型结构引入知识方法总结前言  NLP任务中,常见的做法是根据当前输入进行建模,进而设计出我们的模型,通常用到的信息只有当前局部的信息。这和人类最大的区别就是我们在理解语言的时候,我们会用到我们之前学习到的知识,比如说到“自然语言处理”,我们就可以联想到“文本匹配”、“阅读理解”、“BERT”等等,而我们会利用这些外部知识来加强自己的理解,如果没有用额外的知识,比如接触到我们一个不熟悉

2020-07-05 20:55:29 3645

原创 BERT知识点总结

文章目录为什么NLP网络中经常使用Adam优化器以及存在的问题NLP语言模型的特点Adam优化器的特点问题解决办法BERT的基本原理BERT为什么要取消NSP任务为什么BERT比ELMo效果好?ELMo和BERT的区别是什么?为什么BERT比ELMo效果好ELMo和BERT的区别是什么BERT有什么局限性BERT输入和输出分别是什么?BERT模型为什么要用Mask?如何做Mask?Mask和CBOW有什么异同点BERT模型为什么要用mask相对于CBOW有什么异同点针对中文BERT有什么能改进的地方atte

2020-07-04 20:24:16 2937

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除