multiple kernel learning(MKL)多核学习

历史上之所以会出现多核学习(MKL)这个词,是因为在深度学习流行起来以前,kernel是处理非线性的默认方法,那个年代优化一个非线性函数不容易,每加一层复杂性可能就需要多设计一个优化算法,MKL就是在这种历史背景下诞生的,人们需要一个能够处理更复杂非线性,同时可靠可优化的方法,那就是用多个核,再把它们结合起来,结合的方法有很多,可以用传统的优化方法解,用一些heuristics来search参数,有的甚至不需要用参数,就是单纯地把多个kernel的结果加和起来[1]。因为这类方法在当年看来极其复杂,因此大家给了它一个特别的名字,叫做多核学习。现在回过头来,大多数MKL所定义的objectives都可以放到深度学习的框架下,一个反向传播解决了多少MKL以前想都不敢优化的问题,随着网络数越来越深,可以嵌入的核矩阵也可以做的越来越复杂,是不是还需要给他们起一个新的名字呢?不了,现在我们都叫深度学习。大家慢慢也就很少再提及MKL,以及和它一并出现过的优化算法。

在这里插入图片描述
参考:https://www.cnblogs.com/XBWer/p/4492476.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值