[NLU] Enhancing Dialogue Symptom Diagnosis with Global Attention and Symptom Graph

总述:

通过构造一种global attention的机制以及构造了symptom的图,提高了在医疗对话中,对于每一句话出现symptom的预测精度。以及提高了symptom inference(对于一种症状,病人是否有)的精度

贡献:

1.有一个开源的中文医疗对话数据集,大约两千多个对话,标注了BIO,做了symptom normalization。有四种病,大约162中症状

2.结合了一个global attention

3.构造了一个symptom graph用来表示症状之间的联系

模型:

可以看到先用一层bilstm抽取句子特征,然后结合global attention形成了新的bilstm encoder特征。之后将这个特征可以用于CRF做symptom recognition。识别之后将症状丢到图里面得到一个smooththness loss用于和bilstm encoder得到的特征融合,然后做symptom classify判断这个症状在病人身上有没有。

global attention:

对于当前这个症状而言,他或许在这个对话的上文出现过,或者在其他文档中出现过。那么对于我当前处理的这句话,它之前出现过的地方的hidden可能会有作用,那么当前这个词的hidden就可以结合一个document attention(同一个对话之前这个症状出现地方的hidden)和corpus attention(在不同对话里面,这个症状的hidden),并且用这三个hidden连接起来作为最终的hidden。论文里面首先把不同症状出现的位置打了表,方便查找。

symptom Graph:

用症状作为图的节点,用他们在同一个对话中出现过的次数作为边,并且用min-max norm边的权值构造一个完整的图G。然后每个单独的dialogue会有一个子图G‘会得到个smothness loss:

 这个S是对一个dialog而言的,每一个dialogue有一个子图G‘,(i,j)枚举这个子图的每一个症状,看是不是预测出来了。如果都预测出来了,那么S就是0看,如果某些节点没有预测出来,那么就用它的临节点的边权来表示他(感觉这个S和节点间的关联性的联系不大)

一句话总结:

通过global attention和symptom Graph提高了医疗对话中,症状检测的精度以及symptom inference的精度。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值