NLP论文阅读笔记
文章平均质量分 94
自然语言处理方向经典论文阅读笔记
梆子井欢喜坨
这个作者很懒,什么都没留下…
展开
-
NLP经典论文阅读:从神经网络语言模型(NNLM)到词向量(word2vec)
本文仅供自己日后复习所用,参考了很多博客和知乎回答的内容,中途没有及时记录所以无法一一列出,希望谅解。目录NLP的发展过程中的核心技术代表1. 基于统计的语言模型语言模型与维数灾难N-Gram模型2. 神经网络语言模型(NNLM)NNLM模型公式NNLM模型结构NNLM总结3. Word2vec引入CBOW和Skip-GramCBOW最简单的情况:One-word context推广至Multi-word contextWord2vec得到的词向量词向量的性能探究几个优化方法Hierarchical So原创 2021-04-18 23:22:30 · 1450 阅读 · 0 评论 -
NLP方向组会内容整理(2)Pointer Network在文本摘要中的应用
参考文献:[1] Vinyals O , Fortunato M , Jaitly N . Pointer Networks[J]. Computer Science, 2015, 28.[2] Gu J , Lu Z , Li H , et al. Incorporating Copying Mechanism in Sequence-to-Sequence Learning[C]// Proceedings of the 54th Annual Meeting of the Associat原创 2021-07-12 20:01:02 · 763 阅读 · 0 评论 -
论文阅读笔记:Multi-Labeled Relation Extraction with Attentive Capsule Network(AAAI-2019)
论文信息作者:**Xinsong Zhang **Shanghai Jiao Tong University**Pengshuai Li **Shanghai Jiao Tong University**Weijia Jia **University of Macau & Shanghai Jiao Tong University**Hai Zhao **Shanghai Jiao Tong University论文来源:AAAI-2019论文引用:Zhang X, Li P.原创 2021-07-06 15:54:47 · 594 阅读 · 3 评论 -
THUNLP发布《更多数据,更多关系,更多上下文与更多开放:关系抽取问题综述与前瞻》阅读笔记
论文信息论文来源:arXiv论文引用:Han X, Gao T, Lin Y, et al. More data, more relations, more context and more openness: A review and outlook for relation extraction[J]. arXiv preprint arXiv:2004.03186, 2020.论文链接:https://arxiv.org/abs/2004.031861. 文章概要**关系事实(Re.原创 2021-06-29 11:14:36 · 613 阅读 · 0 评论 -
胶囊网络(Capsule)学习笔记
1. 前言最近学习了一下胶囊网络(Capsule Net),这里写一篇博客记录学习笔记。胶囊网络于2017年,由深度学习先驱Hinton发布的开源论文《Dynamic Routing Between Capsules》提出。胶囊网络的特点是“vector in vector out”,取代了以往神经元的“scalar in scalar out”。Q: 什么是“胶囊”呢?A: 只要把一个向量当作一个整体来看,它就是一个“胶囊”。每一个胶囊表示一个特征,Capsule输出的向量的模值大小表示有没.原创 2021-06-30 20:19:23 · 3256 阅读 · 5 评论 -
Sentence-BERT论文阅读笔记
目录1. 第一篇论文《Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks》1.1 论文基本信息1.2 动机1.3 模型1.4. 实验1.4.1 训练所用的数据集1.4.2 实验结果1.4.3 消融实验1.5 小结2. 第二篇论文2.1 论文基本信息2.2 动机2.3 模型2.3.1 Augmented SBERT2.3.2 Domain Adaptation with AugSBERT2.4 实验2.4.1 数据集2.4.1.1 单领原创 2021-10-01 20:55:10 · 2026 阅读 · 0 评论