5328笔记 Advanced ML Chapter8-Domain Adaptation and Transfer Learning

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
5328始终要记住全局和样本是不同的。这是关键。
在这里插入图片描述
当我们说2个任务不同时,其实是说它们的全局数据分布不同。如果2个任务有相同的全局数据分布,那么我们可以使用相同的算法去解决它们。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
数据的概率分布就是domain。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述机器要想做相同知识的学习,需要明白2个重要的概念,domain adaptation域适应和transfer learning迁移学习。
domain adaptation域适应: source domain—>target domain
在这里插入图片描述
philosophy说完了,下面就是具体实现了
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
knowledge就是model A的参数。自监督的weight frozen一个道理。pre-trained的网络都是transfer learning。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
最重要的概率:Important reweighting
在这里插入图片描述
β是迁移率。Pt是数据在target domain上的分布概率。Ps是在source domain上的分布概率。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
A是红色,B是绿色,蓝色是A向B不断的移动,最终A移动到B。
领域适应,就是让领域A往领域B进行移动,使得信息保留最多。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
让上面的公式min,可以求得β值。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
X都是猫,它们的X的特征是相同的。所以可以target shift model。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
所以上面两种模型,要么是X分布一样,要么是y的分布一样。如果X,y都一样,那data就是同一个domain。不需要迁移了。如果都不相同,就没办法迁移了。

β(y)比β(x)更好求,因为β(y)只要看source domian和target domian的y的分布然后就可以求出了。但是β(x),由于特征是很多维的,所以需要RKHS再生核希尔伯特空间来计算两个domian的概率,再求比值了。

所以迁移学习的问题就是将β(X,y)的联合概率分布转化为控制一个概率分布,求另一个概率分布的比值,得出针对单一变量的β值。(y本身是一个值,x是很多值,可以通过RKHS)。其实就是控制变量法。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值