文章目录
总结
细节
方法分类
feature learning approach
认为既然tasks之间有相似性,那么必然可以学到common feature representation。用这个representation而不是用原始的feature,因为这个feature在多个任务上效果更好。
有2类方法来获得新feature:transform、selection
transform:新feature是旧feature的线性或非线性变换
selection:新feature是旧feature的子集
selection可以看作是transform的特殊情况(系数仅有0、1),具有更好的解释性
缺点:如果有任务和其他任务相关性不强,outliner会导致效果显著变差
low-rank approach
因为任务之间有相关性,模型的某个参数 w i w^i