Domain Adaptation without source data阅读笔记

转载请注明出处
个人博客:https://maxusun.github.io/

该论文主要解决了这个问题:没有源数据集,只有在源数据集上训练的模型,怎么进行domain adaptation

介绍

该论文解决的问题:

  • 没有源数据集,只有在源数据集上训练的模型,怎样进行迁移学习
  • 如何判断某个target data为哪个class
  • target data没有ground truth时,如何解决训练时发生分类偏移的情况

针对上面三个问题,论文提出了对应的解决方法

  • 设计新的网络结构
  • 设计APM模块对target data进行分类
  • 设计Confidence-based filtering来制约

下面介绍根据这三个解决方法进行介绍

论文主要内容

设计新的网络结构

结构

在这里插入图片描述

这个网络主要有三部分:pre-trained model,trainable modelAPM
pre-trained model:在source data上预训练好的模型,在整个训练过程中不变
trainable model:论文中要在target data上训练的模型,初始化时:
APM:存放每个类别的代表样本,当有样本送到网络中时,与里面的代表样本计算距离,然后打分,打分高的类别就贴上对应的label

训练过程

  1. 初始化trainable model,参数Fs->FtCs->Cs2tCs->Ct

  2. target data送到pre-trained model中得到伪标签ys,根据ys计算Lsource,计算公式如下:
    在这里插入图片描述

  3. target data送到trainable model中,得到特征ftft送到APM中得到类别,和对应的伪标签yt,公式如下:其中Pc为每个样板
    在这里插入图片描述

  4. 计算ft打分最高的两个类别,然后计算ft与两个类别的霍思达夫距离,判断是否舍弃不合理的样本。公式如下
    在这里插入图片描述

  5. 根据ysw计算Lself和总的Loss,计算公式如下:
    在这里插入图片描述

设计APM模块

APM中存放每个类的代表性样本(样板),作者提出自熵越小的样本越有资格作为样板。每个类别有多少个样板?作者提出了自适应的阈值。
APM初始化和更新方式:

  1. 计算样本的熵,l(xt)Ct得到的类别概率
  2. 对于每个类别得到一个熵集
  3. 取所有熵集中最小值的最大值作为阈值
  4. 如果一个样本的熵 < 阈值,那么将这个样本作为样板

上述公式如下:
在这里插入图片描述

设计Confidence-based filtering

这个主要解决一个问题:target data没有正确的ground truth,训练的过程容易发生偏移。具体可见训练过程中的第四步。

实验结果

实验结果如下:
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MaXuwl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值