自然语言处理学习记录

理解

  1. NLP
  2. 通俗易懂Word2vec
  3. 理解Glove模型
  4. 吾爱NLP(5)—词向量技术-从word2vec到ELMo
  5. ELMO小谈
  6. 流水账︱Elmo词向量中文训练过程杂记
  7. fastText原理和文本分类实战,看这一篇就够了
  8. BERT大火却不懂Transformer?读这一篇就够了
  9. [NLP自然语言处理]谷歌BERT模型深度解析
  10. 自然语言处理中的自注意力机制(Self-attention Mechanism)
  11. 《Attention is All You Need》浅读(简介+代码)
  12. The Annotated Transformer
  13. 目前主流的attention方法都有哪些?
  14. 图解Transformer(完整版)

实战

  1. 简单NLP分析套路(1)----语料库积累之3种简单爬虫方式应对大部分网站
  2. Word2vec, Fasttext, Glove, Elmo, Bert, Flair pre-train Word Embedding
  3. 数据集
  4. bert nlp papers, applications and github resources, including the newst xlnet , BERT、XLNet 相关论文和 github 项目
  5. Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)
  6. 基于Pytorch和torchtext的自然语言处理深度学习框架,
  7. 爬虫
  8. 情感分析系统
  9. 基于BERT预训练的中文命名实体识别TensorFlow实现
  10. 练手|常见30种NLP任务的练手项目

命名实体识别 记录

  1. 【论文笔记】命名实体识别论文
  2. 一文轻松搞懂-条件随机场CRF
  3. 如何用简单易懂的例子解释条件随机场(CRF)模型?它和HMM有什么区别?
  4. 教程 | 如何直观地理解条件随机场,并通过PyTorch简单地实现
  5. 用IDCNN和CRF做端到端的中文实体识别
  6. 基于Bert-NER构建特定领域的中文信息抽取框架(上)

图神经网络&NLP

  1. 图神经网络如何在自然语言处理中应用?

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值