Transfer learning

key point:how to deal with data not directly related to the task considered?
two different type:
- different domain different task
- different domain same task
在这里插入图片描述
Definition: source data - not related to
targeted data - related(but the number of which is usually small)\

so how to deal with it?
idea: 1.train model with source data(similar to parameter initialization)
2.fine-tune the model by target data
problem: limited data lead to overfitting
→how?

  • add regularization to make the two model not too different
    在这里插入图片描述
    -layer transfer
    在这里插入图片描述
    Question: no obvious improvement?
    在这里插入图片描述
    multitask learning
    (compared to Fine-tuning) it’s focus both on target and source domain performance
    在这里插入图片描述
    fancy model
    Zero-shot learning
    key point: how can a model recognize the image that it never seen?
    solution:
    build the connection between image and attributes and between attributes and class(which means attributes like a bridge)
    在这里插入图片描述
    在这里插入图片描述
    Domain-adversarial training
    key point: 通过feature extractor 分析发现 两类data convolution之后得到的是两个群落,因此再共用同一个label predictor不能得到很好的效果,所以solution:将convolutions之后的信息变为一个群落,由此引出domain classifier。domain classifier的目的是分辨出两个图片是否来自同一个data base 因此main point为 减小label predictor的Loss 和增加domain classifier的loss.
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值