我还不懂对话
文章平均质量分 92
百川AI
心怀热爱,奔赴山海
展开
-
【自学习】- 怎么让对话机器人越来越强?
对话机器人如果能够检测到服务失败的case,再强一点,最好还能够自动纠正,就和人一样,在学习中成长,在成长中学习,越来越强。理想和美好,那么怎么做呢?怎么学习呢?对话机器人在与人交互过程中,人的反应,例如赞扬、骂人、嘲笑等,这些反应满意度的指标,天然的就是标签数据,为我们对话助手的服务打上了满意度标签,如果能够挖掘出这种标签,那么会话助手就会再和人交互中发现badcase,然后利用badcase优化模型,从而优化对话助手让它越来越强,是不是有可能呢?......原创 2022-07-18 22:44:48 · 916 阅读 · 0 评论 -
【问答对话】kbqa?开放域问答怎么有知识地生成
开放域问答怎么有知识地生成最近流行的大模型,如GPT-3也在开放域问答上有一定的能力,那么如何在大的语言模型基础上融合知识呢,其实主要面临两个问题,1)检索什么知识,怎么检索。2)怎么讲检索知识加入。......原创 2022-07-11 00:09:28 · 956 阅读 · 0 评论 -
【评论生成】AI生成评论,如何既相关又多样?
AI评论生成,如何既相关有多样?原创 2022-05-30 00:04:31 · 3093 阅读 · 1 评论 -
【任务型对话】任务型对话中的自然语言生成
任务型对话中,一般包含ASR、语义理解、多轮状态追踪、会话策略、自然语言生成(NLG)模块,那么任务型对话中都有哪些生成的方法呢?基于模板因为任务型对话中,生成任务有两个作用,1. 向用户传递信息,例如搜索到的机票信息(inform_槽位)等,提供给用户选择。2. 进行用户问询,主要是ontology中定义好的字段,比如常见的订票场景中的出发地、目的地(request_槽位)等。因此,可以事先针对传递信息、用户问询的槽位,设计好模板,然后实际应用时,将其中的槽位使用对应的值替换即可。例如:Con.原创 2022-04-17 18:32:45 · 1531 阅读 · 0 评论 -
【多轮对话】多轮对话状态追踪技术综述
对话状态定义:对话一个会话状态S_t,它包含知道前当前轮次t的对话历史的总结,S_t中包含了系统选择下一步action的所有信息。S_t一般都是槽位状态的分布。(意图也可以作为一种槽位状态)会话状态跟踪就是根据所有的历史上下文信息,获得到当前轮的会话状态。原创 2022-02-28 13:00:58 · 3671 阅读 · 0 评论 -
【任务型对话】从ARML看亚马逊的语义表达式
在任务型的话中,一般会包含一个语义理解模块,会将用户query转化为domain、intent、slot的表示,但是面对跨域、细粒度的槽位、数以万计的技能,表示就难以表达query的语义了。于是亚马逊提出了一种新的语义表达方式,相比于之前的domain、intent、slot体系,能够支持跨域的query、细粒度的实体类型、复杂的句子和表达。原创 2021-12-30 22:58:40 · 986 阅读 · 0 评论 -
【多轮对话】从微软源码看用户模拟器构建
用户模拟器是在任务型多轮对话场景中,用于模拟用户在指定目标下多轮对话过程,可以用于生成对话数据,以及通过强化的方式训练系统决策。在具体的任务型场景需要定义有哪些用户行为、用户意图、用户可能说的槽位等,而之后用户模拟器是怎么来推进对话过程的呢?原创 2021-12-29 23:24:09 · 1202 阅读 · 0 评论 -
【多轮对话】任务型多轮对话数据集和采集方法
研究任务型对话系统,首先得从数据集采集说起,学术界需要公开的数据集来证明模型的效果,工业界更需要以数据集为基础来构建更鲁棒的对话系统,那么业界成熟的对话系统数据集有哪些呢,对于多轮,如何更科学的采集数据减少错误呢,本文调研了一些近来一些方案供参考。WoZ&MultiWOZA Network-based End-to-End Trainable Task-oriented Dialogue System提出了woz frameworkNeural Belief Tracker: Data-Dr原创 2021-11-23 00:01:59 · 4073 阅读 · 1 评论 -
【多轮对话】任务型多轮对话状态跟踪-NBT原理
让机器像人一样自由的对话,对话机器人必然要具备连续对话的能力,即多轮对话,多轮对话不用多讲,那么什么是多轮对话状态跟踪呢(DST, dialogue state tracker | belief traker)?在会话的每一步需要去预测用户的目标,然后会话策略给于用户正确的用响应,但用户目标是一个不可观测的隐状态,所以需要通过观测用户历史utterence、系统历史响应,然后获得belief state,通过belief state来表示用户目标。那么什么是会话状态(belief state): 对话的原创 2021-11-03 23:49:22 · 1579 阅读 · 0 评论 -
NER的过去、现在和未来综述-未来
背景命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。本文主要讲关于NER在2021后的一些发展的点原创 2021-11-03 20:32:25 · 1036 阅读 · 0 评论 -
NER的过去、现在和未来综述-现在
命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。之前的过去篇:[NER的过去、现在和未来综述-过去篇]过去和现在是相对于某个时间节点的,暂且以bert作为这个时间节点,本文就主要寻找NER在BERT之后的一些方法。本文将从以下方面展开:(https://zhuanlan.zhihu.com/p/351132129)解码框架(Framework)这里归类的解码器似乎也不太合适,但是也找不到原创 2021-10-25 00:28:51 · 1312 阅读 · 0 评论 -
NER的过去、现在和未来综述-过去篇
背景命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。评价指标使用实体级别的精确率、召回率、F1本文主要讲解NER历史使用过的一些方法,如果更关注于现在使用功能的一些方法,可以参考:基于词典和规则的方法利用词典,通过词典的先验信息,匹配出句子中的潜在实体,通过一些规则进行筛选。或者利用句式模板,抽取实体,例如模板"播放歌曲${song}",就可以将query="播放歌曲七里香"中的song=七原创 2021-10-14 00:38:31 · 1010 阅读 · 0 评论 -
BERT-flow:bert的向量表达是SOTA吗?
On the Sentence Embeddings from Pre-trained Language Models 阅读笔记code : github/BERT-Flowsource : EMNLP 2020BERT在用于下游各项NLP任务上都有明显提升,但是被发现直接作为sentence embedding的预训练模型效果不好,作者发现这是因为没有很好地挖掘BERT里面的语义信息,作者从理论上证明了bert的训练目标(MLM,NSP)和相似度任务之间差异,并可视化展示。发现bert的语义空间是非原创 2021-02-24 11:50:51 · 1395 阅读 · 0 评论