23.3.1调研

这篇博客探讨了使用短语逻辑推理和神经模糊逻辑来解决自然语言处理中的可解释性问题。研究重点在于短语识别、软匹配和蕴含关系推断,通过模型结构如phrase detection、alignment和label induction,以及使用adversary loss函数优化。同时,介绍了‘问我任何事’策略,这是一种提示语言模型的新方法,通过开放性问题和弱监督聚合预测提高性能。此外,文章还涉及了人类验证超级分类器的评估方法和公平分类的研究。
摘要由CSDN通过智能技术生成

上一篇调研之后,还是没有思路,继续调研文献。

WEAKLY SUPERVISED EXPLAINABLE PHRASALREASONING WITH NEURAL FUZZY LOGIC

蕴含关系的分类问题,首先识别出句子中的短语块,软匹配到最接近的短语,然后,通过判断phrase之间的关系,进而得到句子的蕴含关系(可解释性会强一些)
在模型参数更新上,考虑使用adversary loss函数,使应该接近的更加靠近,应该疏远的短语彼此之间距离更远。

也许,相似函数与adversary Loss函数是绝配
我们通过弱监督短语逻辑推理来解决NLI的可解释性问题

所以,使用phrase的软匹配,还是为了可解释性的问题。。。。短语是突破口,短语相似度是工具或者说方法

.我们的模型将短语作为语义单位,并通过嵌入相似性对相应的短语进行对齐。然后,我们为对齐的短语预测NLI标签(即Entailment, Contradiction, 和Neutral)。最后,我们建议以模糊逻辑的方式从短语标签中诱导出句子级别的标签(Zadeh, 1988; 1996)。

根据这段话,关键信息有:
1、研究单位是短语。
2、短语是soft matching
3、从短语之间的NLI过渡到句子之间的NLI,使用了逻辑规则。

模型结构

phrase detection and alignment, phrasal NLI prediction, and sentence label induction

短语块获取:在短语块获取上,是通过设计了语法规则做的捕捉,比如“[AUX] + [NOT] + VERB + [RP]” is treated as a verb phrase
短语块语义表示:对句子做embedding,然后将短语块中的所有token做mean-pool操作,作为短语块语义的global表示,对短语块做embedding,得到的表示作为短语块的local 表示。
soft matching:
phrase NLI prediction:在对短语块的蕴含关系进行推断时,考虑了中立。矛盾。蕴含。
使用的是MLP网络。
在这里插入图片描述
sentence label induction:

  1. 蕴含关系推断规则:

根据Bowman等人(2015)的观点,一个前提包含一个假设意味着,如果前提是真的,那么假设

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值