![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理
Toyhom
这个作者很懒,什么都没留下…
展开
-
如何快速开始AI科研(路线图)-基础篇
仅供深度学习(CV,NLP)方向参考原创 2023-07-13 23:12:38 · 543 阅读 · 0 评论 -
REALM: Retrieval-Augmented Language Model Pre-Training 翻译
语言模型预训练已经显示出可以捕获数量惊人的世界知识,这对于NLP任务(例如问题解答)至关重要。 但是,此知识隐式存储在神经网络的参数中,需要更大的网络才能覆盖更多的事实。为了以更模块化和可解释的方式捕获知识,我们使用潜在的知识检索器增强了语言模型的预训练,检索器使模型可以从预训练、微调和推理期间使用的大型语料库(如Wikipedia)中检索并使用文档。首次,我们展示了如何使用蒙版语言建模作为学习信号并通过考虑数百万个文档的检索步骤进行反向传播,从而以无监督的方式对这种知识检索器进行预训练。原创 2020-02-18 12:51:25 · 1531 阅读 · 0 评论 -
中文新闻情感分类 Bert-Pytorch-transformers
中文新闻情感分类 Bert-Pytorch-transformers使用pytorch框架以及transformers包,以及Bert的中文预训练模型文本分类,模型通过提取序列语义,找到不同类别文本之间的区别,是自然语言处理中比较容易入门的的任务。1.数据预处理进行机器学习往往都要先进行数据的预处理,比如中文分词、停用词处理、人工去噪。以本文所用的数据为例,我们可以观察到,这个数据集...原创 2019-12-25 17:38:23 · 6842 阅读 · 5 评论 -
Chinese medical dialogue data 中文医疗对话数据集
Chinese medical dialogue data 中文医疗对话数据集Data_数据中有6个文件夹分别是:<Andriatria_男科> 94596个问答对<IM_内科> 220606个问答对<OAGD_妇产科> 183751个问答对<Oncology_肿瘤科> 75553个问答对<Pedia...原创 2019-12-09 16:14:48 · 3358 阅读 · 4 评论 -
BERT for Joint Intent Classification and Slot Filling 使用Bert的插槽填充与意图识别联合模型
BERT for Joint Intent Classification and Slot Filling使用Bert的插槽填充与意图识别联合模型Abstract意图分类和插槽填充是自然语言理解的两个基本任务。他们经常受到小规模的人工标签训练数据的影响,导致泛化能力差,尤其是对于低频单词。最近,一种新的语言表示模型BERT (Bidirectional Encoder Representa...原创 2019-11-21 20:45:13 · 7712 阅读 · 7 评论