多任务学习方法( Multi-task learning )介绍

条件:有n个任务t=1,2,...,n,每个任务给予m个样本:(xt1,yt1),...,(xtm,ytm)。

目的:得出一个X到Y的函数ft,t=1,2,...,n。

当这些任务是相关的,联合的任务学习应该比单独学习每个任务的效果好,特别当每个任务的数据相当少的时候,在这种情况下,

独自学习是很不成功的。

在这个过程中主要用到了传递的功能:1)通过n个任务学习得到的好的概括结果能够传递到一个新的任务上,2)通过新任务t‘的一

些数据,{(xt'1,yt'1),....,xt'l,yt'l},学习函数ft',3)从n个任务中学习到的共同结构或者共同特征确实能够“传递”到新任务中来。

4)传递是人类智能的一个很重要的特征。



在多任务学习中,当这些任务是相关的,联合的任务学习应该比单独学习每个任务的效果好,特别当每个任务的数据相当少的时候,在这种情况下,独自学习是很不成功的。


Convex Multi-task Feature Learning 是一篇比较经典的文章,代码点击这里可以下载。

还有一篇是Multi-Task Feature Learning Via Efficient l2-1 Norm Minimization, 点击这里可以下载。这篇文章的最后一位作者就是JiePing Ye, 是LDA的大牛,2D LDA和GLDA就是他提出来的,而且他的主页上面公布了不少的源代码,有兴趣的可以看一看~

这里有关MTL的Tutorial
http://www.public.asu.edu/~jye02/Software/MALSAR/MTL-SDM12.pdf

另外, MTL的matlab工具包有:
http://asi.insa-rouen.fr/enseignants/~arakoto/code/SparseMTL.html
http://www.public.asu.edu/~jye02/Software/MALSAR/ 
(里面有manual, 如何使用)

  • 1
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值