NLP
文章平均质量分 88
实战NLP
刘皮狠
这个作者很懒,什么都没留下…
展开
-
知识蒸馏研究综述
知识蒸馏综述阅读原创 2022-11-28 19:59:45 · 2651 阅读 · 0 评论 -
Bilibili视频-知识蒸馏笔记
Bilibili视频-知识蒸馏笔记原创 2022-11-28 18:07:35 · 210 阅读 · 0 评论 -
BART model
BART Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension论文阅读原创 2022-11-28 15:14:24 · 672 阅读 · 0 评论 -
EMNLP2021 401500
论文阅读原创 2022-11-28 15:10:51 · 278 阅读 · 0 评论 -
syntactic-semantic parsing
syntactic-semantic parsing 阅读原创 2022-11-28 15:09:49 · 385 阅读 · 0 评论 -
Dependency Parsing as MRC-based Span-Span Prediction
Dependency Parsing as MRC-based Span-Span Prediction论文阅读原创 2022-11-28 15:06:54 · 202 阅读 · 0 评论 -
Data Augment Approavhes in Natural Language Processing
Data Augment Approavhes in Natural Language Processing论文阅读原创 2022-11-28 15:05:31 · 110 阅读 · 0 评论 -
Pre-train Model
预训练模型综述论文阅读原创 2022-11-28 15:00:26 · 462 阅读 · 0 评论 -
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Transformer-XL论文阅读笔记原创 2022-11-28 14:52:10 · 147 阅读 · 0 评论 -
mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer
mT5论文阅读笔记原创 2022-11-28 14:51:02 · 609 阅读 · 0 评论 -
实战NLP beginner任务二:基于深度学习的文本分类
文章目录一. 理论知识1.1 词嵌入1.2 Dropout二. 代码实现一. 理论知识1.1 词嵌入1.2 Dropout二. 代码实现原创 2022-03-17 21:19:21 · 1567 阅读 · 0 评论 -
实战NLP beginner任务一:基于机器学习的文本分类
文章目录一.理论知识1.1 Ngram1.1.1 什么是Ngram1.1.2 为什么使用Ngram1.1.3 N-gram的应用1.1.4 N-gram存在的问题及解决方法1.2 bag of words(BOWs)1.2.1 什么是BOWs1.2.2 怎么使用BOWs1.3 logistic/softmax 回归1.3.1 什么是逻辑回归1.3.2 逻辑回归模型numpy实现Ngram实现logistic回归的numpy实现softmax回归的numpy实现一.理论知识1.1 Ngram1.1.1原创 2022-03-10 21:48:03 · 2371 阅读 · 1 评论