深度学习(二)多任务学习

在智能驾驶感知应用中,摄像头是重要的组件。从乘客舱的360环视拼接到自动驾驶都离不开摄像头,在各大主机厂中最典型的就是特斯拉,不同于国内激光雷达的感知方案,特斯拉采用纯视觉的方案,由此可见视觉方案的重要性。

随着行业的发展,机器学习需要承担更多的学习任务,因此多任务学习(MTL)也随之诞生。多任务学习是一种学习方式,其目的是利用多个相关任务中包含的有用信息来帮助提高所有任务的泛化性能,MTL可以与半监督学习、主动学习、无监督学习等多种方式相结合。

优点

1.与单任务学习相比,它利用了来自不同学习任务的更多数据。有了更多的数据,MTL可以为多个任务学习更强大、更通用的表示和更强大的模型,从而在任务之间实现更好的知识共享,每个任务的性能更好,每个任务过拟合的风险更低。

2.与迁移学习相比,在MTL中,不同任务之间没有区别,其目标是提高所有任务的性能。然而,迁移学习是在源任务的帮助下提高目标任务的性能,因此目标任务比源任务更重要。简而言之,MTL对所有任务一视同仁,但在迁移学习中,目标任务吸引了大部分注意力。从知识流的角度来看,迁移学习中的知识流是从源任务到目标任务,但在多任务学习中,任何一对任务之间都有知识共享的流动。

MTL的学习方法

在基于特征的MTL中,主要有一种方法:特征学习方法。在基干参数的MTL中,有四种主要方法:低秩法、任务聚类法、任务关系学习法和分解法。

特征学习法

特征学习是从原始数据中学习到更高级别的特征,并依据特征去完成目标检测、跟踪、实例分割等任务。

低秩法

在深度学习中,多个任务的若存在相关性,例如第i、i和k个任务是相关的,即第i个任务的模型参数是其他两个任务的线性组合,那么整个模型的秩最多为 m-1,因此是低秩的。从这个角度来看,相关性越大,模型的秩就越低。

任务聚类法

与传统的基于密度的聚类方式理解方式一致,这种方法是将几个相似的任务来进行组合。

任务关系学习法
在MTL中,任务是相关的,任务的相关性可以通过任务相似性、任务相关性、任务协方差等来量化。

分解法

将一个复杂的任务分解成多个层次化的子任务,将相关的任务组合在一起,共享模型的一部分参数,既能提升模型的泛化能力,又能提高训练效率。

  • 5
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值