李宏毅nlp学习笔记03:nlp任务总述

1.分类:文本->类别

分为两种,一种是整个文本输出一个类别,另一种是文本中的每个token输出一个token。
在这里插入图片描述

2.文字->文字

使用的是seq2seq模型,中间可能使用注意力机制。
有一种特殊的情况是输出的一部分可以直接copy输入的。
在这里插入图片描述

3.多个句子输入:

在这里插入图片描述
之前使用的是右边的图,即两个句子输入到模型中,输入的结果再经过一个模型进行整合,需要的话,在两个句子之间进行注意力机制。
现在的使用的是,在两个句子之间添加一个token,让模型知道是一个上下句。

4.nlp文本任务总述:

在这里插入图片描述

5.POS(词性标注):

在这里插入图片描述
模型进行词性标注后可能获得更好的效果。
但是,比较强的模型可能不需要预先进行pos,因为更强的模型本身就可能带有或者可以学到。

6.word segmentation(中文分词):

在这里插入图片描述

分词有没有必要呢?也是一个值得讨论的话题。
bert没有预先进行分词,输入是以字进行处理的,因为模型内部会自动学会要进行分词这个操作。

7.parsing:

在这里插入图片描述

8.Coreference Resolution(指代消解):

在这里插入图片描述

9.summarization(摘要):

在这里插入图片描述

如上图所示,摘要的一种方法是从文章中所有的句子提取出来认为关键的句子。
实质上是一个二分类问题,每个句子的输出有两种结果,是摘要的一部分,不是摘要的一部分。
存在的一个问题是:如果有两个意思相近的句子,但是这两个句子还有不同的地方,都应该体现在摘要中,但是模型绝大多数情况下都会选择只保留一个句子。

第二种摘要的方式:机器要用自己的话来组织摘要。

seq2seq
输入一个长的seq,输出一个短的seq
在这里插入图片描述

10.机器翻译:

在这里插入图片描述

11.grammar error correction:

在这里插入图片描述

12.情感分类:

在这里插入图片描述

13.stance detection:

在这里插入图片描述

14.Veracity Prediction(真实性预测)

在这里插入图片描述

15.NLI(自然语言推理)

在这里插入图片描述

16.搜索引擎:

在这里插入图片描述
现在bert模型已经加入到了goole的搜索中。

17.QA:

在这里插入图片描述
结构:
在这里插入图片描述
Extractive QA:问题的答案就是在所给的文本中提取的。

在这里插入图片描述

18.Dialog(对话):

①chatting:

笑翻人的尬聊机器人:

在这里插入图片描述
在这里插入图片描述
机器需要记住之前人说过的话、

在这里插入图片描述
不同性格的人交流起来模型内部应该是不同的。

②:task-oriented(任务导向):

在这里插入图片描述
nlg:
在这里插入图片描述
在这里插入图片描述

NLU:

在这里插入图片描述

在这里插入图片描述

19.Knowledge graph(知识图谱):

在这里插入图片描述

NER:

在这里插入图片描述

Relation Extraction

在这里插入图片描述

20.GLUE:评估用一个模型来解决nlp常见问题。

在这里插入图片描述

21.super glue:找一些更难的任务来评估模型:

22.总结一下:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值