理解
- NLP
- 通俗易懂Word2vec
- 理解Glove模型
- 吾爱NLP(5)—词向量技术-从word2vec到ELMo
- ELMO小谈
- 流水账︱Elmo词向量中文训练过程杂记
- fastText原理和文本分类实战,看这一篇就够了
- BERT大火却不懂Transformer?读这一篇就够了
- [NLP自然语言处理]谷歌BERT模型深度解析
- 自然语言处理中的自注意力机制(Self-attention Mechanism)
- 《Attention is All You Need》浅读(简介+代码)
- The Annotated Transformer
- 目前主流的attention方法都有哪些?
- 图解Transformer(完整版)
实战
- 简单NLP分析套路(1)----语料库积累之3种简单爬虫方式应对大部分网站
- Word2vec, Fasttext, Glove, Elmo, Bert, Flair pre-train Word Embedding
- 数据集
- bert nlp papers, applications and github resources, including the newst xlnet , BERT、XLNet 相关论文和 github 项目
- Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)
- 基于Pytorch和torchtext的自然语言处理深度学习框架,
- 爬虫
- 情感分析系统
- 基于BERT预训练的中文命名实体识别TensorFlow实现
- 练手|常见30种NLP任务的练手项目
命名实体识别 记录
- 【论文笔记】命名实体识别论文
- 一文轻松搞懂-条件随机场CRF
- 如何用简单易懂的例子解释条件随机场(CRF)模型?它和HMM有什么区别?
- 教程 | 如何直观地理解条件随机场,并通过PyTorch简单地实现
- 用IDCNN和CRF做端到端的中文实体识别
- 基于Bert-NER构建特定领域的中文信息抽取框架(上)
图神经网络&NLP