语义对齐&事实虚假性

Seed the Views: Hierarchical Semantic Alignment for Contrastive Representation Learning

核心是做语义对齐,是深入网络内部做对齐,对抗损失函数。

涉及到对抗损失,需要正负样本:
Cross_Sample: 对于跨样本的观点,选择适当的最近的样本作为阳性样本是一个两难的选择,拉出在特征空间中事实上非常相似的样本带来的性能提升是有限的,因为目前的表示法可以很好地处理这些不变性,而扩大搜索空间将不可避免地引入噪声样本。为了解决这个问题,**我们依靠数据混合来产生额外的正样本,**这可以被视为锚的平滑正则化。通过这种方式,类似的样本以一种更平滑和稳健的方式被扩展,我们能够更好地对类内相似性进行建模,以实现紧凑表示。
在ablation study中,需要考虑正样本的个数,k。

选择作为contrastive的样本,正负样本如何选择?样本数量上设计多少比较合适?

Multi-level views: 对于多层次的观点,我们发现虽然最后一层的线性分类准确率接近监督基线[2], [3],但目前基于对比的方法的中间层表示遭受了更低的分辨能力,这对于需要中间分辨能力的下游任务,如检测,是有害的。为了实现这一目标,我们将观点扩展到网络的中间层,并提出了一种分层训练策略,使特征表示在中间层具有更强的判别能力。然而,由于梯度竞争问题,在中间表征上直接添加损失层时,它存在着优化矛盾。为了解决这个问题,**我们为每个中间损失添加一个瓶颈层,**我们发现这适用于稳健的优化。通过这种方式,特征在整个网络中被深度监督,这也有利于转移性。

contrastive参数的模型层,是在最后一层-和模型结果密切的高层还是在模型的浅层——学习到低级信息的layer做参数更新?

论文中还考虑参数反向更新的问题,如果是对模型中的多个layer做参数更新,怎么实现反向传递?

虚假事实检测

GPTs at Factify 2022: Prompt Aided Fact-Verification
这篇文章感觉没什么营养价值。是对一个五分类的数据集,用prompt实现,先是做了1对4的分类,在做了四分类。

打算看看?https://zhuanlan.zhihu.com/p/285770986 这篇,也是在讲虚假事实的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值