《Schema-Guided Multi-Domain Dialogue State Tracking with Graph Attention Neural Networks》总结

多领域对话系统槽值的稀疏型问题:

由于领域增多槽位随之增加,导致槽值之间的组合情况明显增多。直观上来看就是分母变大了,而实际上槽值的组合情况并没有那么多,相当于分母成指数型增长,但分子成线性增长,造成稀疏性问题。如果说不考虑槽位之间的联系,独立预测槽位的值就会导致所有可能的情况(分母)为各个槽值个数相乘的结果。

LSTM & GRU

LSTM长短期循环网络:遗忘门、输入门、输出门
GRU:重置门、更新门

残差项

残差项就是加一个数(比如解决梯度消失的问题可以通过加入一个小的数值来解决)

本体模式信息

本体信息,师兄说是一种规则式的东西,就好比上下文无关文法。

图节点的输入是当前槽位的槽值的向量

实体entity就是每一个槽位的一种取值

pytorch安装以及cuda安装

GPU适合处理并行运算任务,如果计算任务比较大并且可以拆分为很多比较小的计算任务来并行处理(拆分为并行任务之后不影响下一步的运算,下一步运算可等待所有的并行计算结束得到结果之后进行),那么这样的任务在GPU上运行效率更高。如果本来任务就足够的小,那么由于将数据从CPU迁移至GPU就需要消耗时间和资源则得不偿失。而深度学习、神经网络的计算天生就是大量的并行运算,所以非常适合在GPU上进行计算和训练。
CUDA是GPU硬件的API,可以调用他们来让GPU进行相关的计算。我们不需要了解CUDA的细节,pytorch会帮助我们来调用,所以pytorch是一个非常好用和便捷的深度学习框架。

遗留任务

  1. 读论文
  2. 配置环境,跑一下师兄给的代码 https://github.com/DSKSD/DeepNLP-models-Pytorch 和 https://github.com/graykode/nlp-tutorial
  3. 图的构造

几个学习网址

github上

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值