Reasoning with Sarcasm by Reading In-between

本文介绍了SIARN和MIARN模型,用于通过阅读之间的信息来理解讽刺。这两种模型利用单词对的内在关系进行二分类预测,其中SIARN考虑单一关系,而MIARN考虑多维关系。模型包括单/多维度内注意力、LSTM和预测层,通过这些组件捕捉句子的上下文信息并进行讽刺检测。
摘要由CSDN通过智能技术生成

Reasoning with Sarcasm by Reading In-between

click here:文章下载

方法综述:

本文提出了新的模型SIARN(Singal-dimensional Intra-Attention Recurrent Networks)和MIARN(Multi-dimensional Intra-Attention Recurrent Networks)。

先给出一个定义,关系得分 s i , j s_{i,j} si,j表示单词 w i w_i wi w j w_j wj间的信息关联程度。二者的区别仅在于,SIARN中只考虑单词对间的一种内在关系, s i , j s_{i,j} si,j是个标量;而MIARN考虑单词对间的多种(k种)内在关系, s i , j s_{i,j} si,j是个k维向量,再将其融合为一个标量。

模型中包含三个子模型:Singal/Multi-dimensional Intra-AttentionLSTMPrediction Layer
Singal/Multi-dimensional Intra-Attention:通过单词对间的信息,得到句子的Intra-Attentive Representation
LSTM:通过句子的序列信息,得到句子的Compositional Representation
Prediction Layer: 融合两种信息表示,进行二分类预测
在这里插入图片描述

各模型算法:

Singal/Multi-dimensional Intra-Attention
Sigal-dimensional:

s i , j = W a ( [ w i ; w j ] ) + b a    ⟹    s i , j ∈ R s_{i,j}=W_a([w_i;w_j])+b_a \implies s_{i,j} \in R si,j=Wa([wi;wj])+basi,jR 标量

W a ∈ R 2 n × 1 , b a ∈ R ; W_a \in R^{2n \times 1},b_a \in R; WaR2n×1,baR;

Multi-dimensional:

s i , j ^ = W q ( [ w i ; w j ] ) + b q    ⟹    s i , j ^ ∈ R k \hat{s_{i,j}}=W_q([w_i;w_j])+b_q \implies \hat{s_{i,j}} \in R^k si,j^=W

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值