![](https://img-blog.csdnimg.cn/20190918140053667.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
NLP
文章平均质量分 80
NLP
bugmaker.
这个作者很懒,什么都没留下…
展开
-
TF-IDF详解
TF-IDF(term frequency–inverse document frequency,词频-逆向文件频率)是一种用于信息检索(information retrieval)与文本挖掘(text mining)的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。 TF-IDF的主要思想是:如果某个单词在一篇文章中出现的频率TF高,并且在其他文章中很原创 2022-12-05 10:34:56 · 778 阅读 · 0 评论 -
BERT论文精读
我们引入了一种新的语言表示模型BERT,它使用了来自Transformer的双向编码器。与最近的语言表示模型不同,Bert的设计目的是结合左右双向的信息,使用预训练模型来生成文本的深度双向表示。预训练的Bert模型可以通过一个额外的输出层进行优化,从而为广泛的任务(如问题回答和语言推理)创建最先进的模型,而无需对特定于任务的体系结构进行实质性修改。它在11个自然语言处理任务上获得了最新的结果。原创 2022-11-07 10:27:09 · 551 阅读 · 0 评论 -
Transformer论文精读
主要的序列转换模型是基于复杂的递归或卷积神经网络,包括一个编码器和一个解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的网络结构Transformer,它完全基于注意力机制,完全省去了重复和卷积。在两个机器翻译任务上的实验表明,这些模型在质量上是优越的,同时具有更高的并行性,需要更少的训练时间。原创 2022-11-07 09:53:32 · 565 阅读 · 0 评论