自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (1)
  • 收藏
  • 关注

原创 论文总结——情感对话

情感对话~

2022-06-13 14:53:44 2000 1

原创 论文总结——融入知识的对话

融入知识的对话生成~

2022-06-06 11:01:05 881

原创 论文阅读(五):Review of Research on Task-Oriented Spoken Language Understanding

新年快乐呀~~过完年之后又要开始学习啦,因为我还有一个课的作业是要写一个综述,所以最近会经常看与任务型对话相关的综述或文章啦~今天分享的是针对任务型对话中SLU任务的一篇综述,提取感谢各位批评指正啦~Review of Research on Task-Oriented Spoken Language Understanding(综述)论文主要内容(包含创新点以及不足)任务型对话的基本流程(跟我了解到的分类有一点点不一样,为了保持一致我还是按照之前我的分类方法啦),本文主要是介绍SLU的,主要

2021-02-19 21:02:23 349

原创 论文阅读(四):Few-shot Natural Language Generation for Task-Oriented Dialog

话不多说我就直接开始总结啦提前感谢所有的批评指正~Few-shot Natural Language Generation for Task-Oriented Dialog论文主要内容(包含创新点以及不足)对话系统主要分为任务型对话和闲聊型对话。本文主要聚焦于任务型对话。一个典型的任务型对话使用的时pipeline的结构,每一轮对话都使用一个4步的过程进行处理,分别是:NLU:自然语言理解,得到用户的意图和槽及槽值等信息DST:对话状态追踪,将NLU得到的信息格式化为DST的输入.

2021-02-03 23:22:42 667

原创 论文阅读(三):BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding论文主要内容(包含创新点以及不足)提出了Bidirectional Encoder Representations from Transformers(BERT),BERT主要是由多层双向的Transformer Encoder构成,通过在所有层中联合调节上下文来预训练未标记文本的深层双向表示。因此只需要在预训练模型的基础上增加一个额外的输出

2021-01-30 17:53:09 339

原创 论文翻译:TOD-BERT:任务导向型对话的预训练自然语言理解模型

因为有一个NLP课程的作业需要找与研究领域相关的比较近的一篇论文进行翻译,所以就找到了TOD-BERT这篇论文~目前也在看作者们给出的代码,如果可以会自己去训练一下试试看~~TOD-BERT:任务导向型对话的预训练自然语言理解模型摘要:普通文本和任务型对话之间的语言模式的潜在差异使得现在的与训练语言模型在实际使用中作用不大。在这项工作中,我们统一了九个人与人之间的多回合任务的对话数据集进行语言建模。为了在预训练期间更好的模拟对话行为,我们将用户和对话系统的token合并放入带mask的语言模型中。我们

2021-01-29 16:43:06 1846

原创 论文阅读(二):3篇对话系统综述阅读

这周主要是看了3篇对话系统的综述,主要是为了对对话系统有一个更深的了解,所以就把看的所有综述都放在一起了~~《智能对话系统研究综述》《A Survey on Dialogue Systems:Recent Advances and New Frontiers》智能对话系统研究综述_贾熹滨论文主要内容(包含创新点以及不足)首先根据应用场景,将对话系统分为开放域和封闭域。开放域需要不同领域的不同知识,需要系统具备丰富的知识,能完成多任务,感觉有点类似于横向,比如虚拟偶像和聊天机器人。这种任

2021-01-26 16:44:50 1422

原创 论文阅读(一):Attention Is All You Need

论文阅读:Attention Is All You Need写在最前面:假期在家学习动力不足,为了更好的督促自己,准备每周至少分享一次论文阅读!有些地方可能理解的不是很透彻,提前感谢各位大佬指正~论文主要内容(包含创新点以及不足)提出了只用注意力机制的议长网络结构-transformer,这种网络结构避免了重复和卷积,有更好的并行能力,需要的训练时间也更少!!! 这也太厉害了吧,造轮子的人实锤。首先介绍了RNN等递归神经网络在应用过程中的缺点,即其计算基本上都是固定顺序的,因为在隐

2021-01-21 17:17:04 355

原创 python爬取 过去的微博热搜(热搜神器)

python爬取热搜神器(可以查找关键字热搜or过去的热搜)hello,因为老师给了任务,希望我们爬取一些微博上的数据,所以就想到了要爬取热搜,再根据热搜爬取评论。因为微博对过往的热搜不能根据时间进行搜索,因此这里笔者找到了一个微信公众号–热搜神器点击历史热搜就可以看到之前某一天的热搜。但是好像要用积分兑换,我登录注册了一下用100积分换了七天能查阅的时间,所以就抓紧时间开始写这个博客啦~~话不多说~我们开始吧引入库这里就不做介绍了,主要还是用requests库,还用到了正则表达式,xlwt等,都

2020-11-07 14:18:01 7925 1

爬取微博神器(公众号)中过去的热搜

爬过去的微博用的代码~~具体的可以参考博客上,有详细的介绍~https://blog.csdn.net/weixin_42208219/article/details/109545977

2020-11-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除