context建模学习(time-decay)

本文探讨了如何在对话系统中利用时间衰减注意力来改进上下文建模。通过引入可训练的距离向量,模型能够自适应地学习时间衰减函数,从而更准确地捕捉对话状态。实验表明,这种灵活的时间意识注意力模型可以提高对话理解和SLU任务的准确性。
摘要由CSDN通过智能技术生成

说到底还是线性组合,学习POMDP,
How Time Matters: Learning Time-Decay Attention for Contextual Spoken Language Understanding in Dialogues
Time Masking: Leveraging Temporal Information in Spoken Dialogue Systems
Decay-Function-Free Time-Aware Attention to Context and Speaker Indicator for Spoken Language Understanding

1、在这里插入图片描述
考虑到system和user分别建模(role)
v c u r = BLSTM ⁡ ( x , W h i s ⋅ v h i s ) o = sigmoid ⁡ ( W S L U ⋅ v c u r ) \begin{aligned} \mathbf{v}_{\mathrm{cur}} &=\operatorname{BLSTM}\left(\mathbf{x}, W_{\mathrm{his}} \cdot \mathbf{v}_{\mathrm{his}}\right) \\ \mathbf{o} &=\operatorname{sigmoid}\left(W_{\mathrm{SLU}} \cdot \mathbf{v}_{\mathrm{cur}}\right) \end{aligned} vcuro=BLSTM(x,Whisvhis)=sigmoid(WSLUvcur)
v his  = ∑ role  v his, role  = ∑ role  B L S T M role  ( x t ,  role  ) \begin{aligned} \mathbf{v}_{\text {his }} &=\sum_{\text {role }} \mathbf{v}_{\text {his, role }} \\ &=\sum_{\text {role }} \mathrm{BLSTM}_{\text {role }}\left(x_{t, \text { role }}\right) \end{aligned} vhis =role vhis, role =role BLSTMrole (xt, role )
v h i s U = ∑ role  B L S T M role  ( x t ,  role  , { α u j ∣ u j ∈  role  } ) \mathbf{v}_{\mathrm{his}}^{U}=\sum_{\text {role }} \mathrm{BLSTM}_{\text {role }}\left(x_{t, \text { role }},\left\{\alpha_{u_{j}} | u_{j} \in \text { role }\right\}\right) vhisU=role BLSTMrole (xt, role ,{ αujuj role })
v h i s R = ∑ r o l e α r o l e ⋅ v h i s , r o l e \mathbf{v}_{\mathrm{his}}^{R}=\sum_{\mathrm{role}} \alpha_{\mathrm{role}} \cdot \mathbf{v}_{\mathrm{his}, \mathrm{role}} vhisR=roleαrolevhis,role α r o l e = m a x ( α u j ) α_{role}=max(α_{u_j}) αrole

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值