nlp
learn_forlife
learn for life
展开
-
attention注意力机制学习
【参考资料】:目前主流的attention方法都有哪些? - JayLou娄杰的回答 - 知乎目前主流的attention方法都有哪些? - 张戎的回答 - 知乎Attention机制解读 - 高峰OUC的文章 - 知乎Transformer详解(一)——Attention机制详解 - 被包养的程序猿丶的文章 - 知乎简说Seq2Seq原理及实现 - 陈猛的文章 - 知乎Attention机制简单总结 - 邱震宇的文章 - 知乎注:本文的内容均来自上面所罗列的参考资原创 2020-11-06 16:34:29 · 1097 阅读 · 0 评论 -
fastText学习以及对embedding的理解
学习资料以及本文内容引用来源:博客:fastText原理及实践wordembedding系列(三)FastText论文:Enriching Word Vectors with Subword InformationBag of Tricks for Efficient Text ClassificationEmbedding理解:背景:Embedding的流行,归功于google提出的word2vec。本质:使距离相近的向量对应的物体有相近的含义,比如 Embedding(复仇者联原创 2020-11-05 10:17:58 · 1736 阅读 · 0 评论 -
jieba分词paddle模式性能测试
**在使用jieba分词时发现分词速度比较慢,由于一直默认使用的paddle模式,好奇是不是该模式拖慢了运行速度,因此想着对比一下paddle模式相比默认模式的分词和运行速度上的差异。 **# 准备了100条语料len(corpus)Out[112]: 100corpus[0]Out[113]: '勒布朗承受压力远超乔丹 公牛王朝首冠曾充满争议新浪体育讯北京时间3月18日 迈克尔-乔丹是公认的篮球史上最杰出、最伟大的23号。8年前,一个仰慕他的年轻人在克利夫兰穿上了23号,他希望能够达到偶像的高原创 2020-11-04 10:41:07 · 4677 阅读 · 2 评论