稳定学习相关工作及介绍

稳定学习

稳定学习的目标如下,模型应用到不同的数据分布下的时候,都有着可靠的性能且性能间的方差较小

在这里插入图片描述

给出因果关系的定义,假设存在下图的因果图,在控制住除变量 T 之外所有其它的变量 X不变的条件下,对 T 施加一定的影响,如果 Y 会随着 T 的变化而变化,则称 T 对 Y 有因果效应

在这里插入图片描述

在计算过程中,论文使用了直接混淆变量平衡(directly confounder balancing)的方法,以上图为例,将数据划分为 T=0 和 T=1 的两组后,对两组数据的样本进行加权,使得这两组数据加权后的 X 分布一致,当 T 和 X 独立之后,度量 T 与 Y 之间的关联性等价于计算 T 与 Y 之间的因果效应。在实际的机器学习问题中,度量的是一组输入变量,稳定学习试图学习一组全局样本权重,通过样本加权的方式使所有的输入变量之间都相互独立,从而利用现有的基于关联的模型实现基于因果的预测,之后有一系列论文从离散/连续、线性/非线性等不同角度解决变量间去相关的问题。

Causally Regularized Learning with Agnostic Data Selection Bias. ACM Multimedia, 2018.

在这里插入图片描述

为了简化起见,假设变量都是离散的二元变量。对于输入样本的某一维特征,将其作为干预变量T,然后将其余的特征作为需要控制的 X,计算加权后实验组和对照组的样本矩的差的二范数,将各个二范数加起来,就得到所需要的正则项。其中 W ∈ R n × 1 W\in R^{n \times1} WRn×1 X − j X_{-j} Xj这一步是将输入X的第j列置为0, I j ∈ R n × 1 I_j\in R^{n \times1} IjRn×1是将第j个特征为1的样本设为1,否则设为0。因此上式的前半部分计算第j个特征为1时对应样本其他变量的W加权平均值,后半部分计算第j个特征为0时对应样本其他变量的W加权平均值。

在这里插入图片描述

Stable Prediction with Model Misspecification and Agnostic Distribution Shift. AAAI, 2020.

这篇论文是把稳定学习推广到了连续变量情况下

在这里插入图片描述

假设两个变量是不相关的,则它们乘积的期望等于期望的乘积,样本加权矩阵 W ∈ R n × 1 W\in R^{n \times1} WRn×1满足下式

在这里插入图片描述

假设
在这里插入图片描述
,则可将去相关loss改写成

在这里插入图片描述

Deep Stable Learning for Out-Of-Distribution Generalization.CVPR,2021

之前的去相关方法只能去除线性相关,为了去除非线性相关,论文使用随机傅立叶特征将原始特征映射到高维空间,再消除新特征间的线性相关

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

羊城迷鹿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值