- 博客(4)
- 资源 (1)
- 收藏
- 关注
转载 系统学习NLP(三十)--词向量对齐
这块,也可以参考facebook的https://www.jiqizhixin.com/articles/under-the-hood-multilingual-embeddings关于词向量对齐的历史方法,可以看这里:https://blog.csdn.net/xacecaSK2/article/details/1020962561. 前言在公司业务需求背景下,我需要解决来源不同语言...
2019-12-06 14:02:37 7784 1
转载 系统学习NLP(二十九)--BERT
补充一份细节的理解:https://zhuanlan.zhihu.com/p/74090249输入嵌入:https://www.cnblogs.com/d0main/p/10447853.html1. 前言在本文之前我们已经介绍了ELMo和GPT的两个成功的模型,今天给大家介绍google新发布的BERT模型。BERT来头可不小,其性能超越许多使用任务特定架构的系统,刷新了11项NLP...
2019-12-05 22:19:14 2454
转载 系统学习NLP(二十八)--GPT
论文:Improving Language Understandingby Generative Pre-Training1. 前言本文对2018年OpenAi提出的论文《Improving Language Understandingby Generative Pre-Training》做一个解析。一个对文本有效的抽象方法可以减轻NLP对监督学习的依赖。大多数深度学习方法大量的...
2019-12-02 23:50:51 1218
转载 系统学习NLP(二十七)--EMLo
论文:Deep contextualized word representations参考:https://www.cnblogs.com/huangyc/p/9860430.htmlhttps://blog.csdn.net/firesolider/article/details/88092831ELMo的语言理解是通过预测训练单词序列中的下一个单词来实现,这项任务被称为语言建模。这...
2019-12-02 23:14:17 1418
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人