1.分类:文本->类别
分为两种,一种是整个文本输出一个类别,另一种是文本中的每个token输出一个token。
2.文字->文字
使用的是seq2seq模型,中间可能使用注意力机制。
有一种特殊的情况是输出的一部分可以直接copy输入的。
3.多个句子输入:
之前使用的是右边的图,即两个句子输入到模型中,输入的结果再经过一个模型进行整合,需要的话,在两个句子之间进行注意力机制。
现在的使用的是,在两个句子之间添加一个token,让模型知道是一个上下句。
4.nlp文本任务总述:
5.POS(词性标注):
模型进行词性标注后可能获得更好的效果。
但是,比较强的模型可能不需要预先进行pos,因为更强的模型本身就可能带有或者可以学到。
6.word segmentation(中文分词):
分词有没有必要呢?也是一个值得讨论的话题。
bert没有预先进行分词,输入是以字进行处理的,因为模型内部会自动学会要进行分词这个操作。
7.parsing:
8.Coreference Resolution(指代消解):
9.summarization(摘要):
如上图所示,摘要的一种方法是从文章中所有的句子提取出来认为关键的句子。
实质上是一个二分类问题,每个句子的输出有两种结果,是摘要的一部分,不是摘要的一部分。
存在的一个问题是:如果有两个意思相近的句子,但是这两个句子还有不同的地方,都应该体现在摘要中,但是模型绝大多数情况下都会选择只保留一个句子。
第二种摘要的方式:机器要用自己的话来组织摘要。
seq2seq
输入一个长的seq,输出一个短的seq
10.机器翻译:
11.grammar error correction:
12.情感分类:
13.stance detection:
14.Veracity Prediction(真实性预测)
15.NLI(自然语言推理)
16.搜索引擎:
现在bert模型已经加入到了goole的搜索中。
17.QA:
结构:
Extractive QA:问题的答案就是在所给的文本中提取的。
18.Dialog(对话):
①chatting:
笑翻人的尬聊机器人:
机器需要记住之前人说过的话、
不同性格的人交流起来模型内部应该是不同的。
②:task-oriented(任务导向):
nlg: