本文为阅读总结个人认为书里概念性的、对本人有帮助的内容,仅供参考。
机器学习既是科学,也是技术,两者的特点提示我们如何将其统一起来。
在科学方面,理论的统一往往从看似简单的观察开始。
世界上许多最重要的技术都是创造统一物的结果,该统一物是单一机制,能完成之前需要很多机制完成的事情。
终极算法是机器学习的统一物:它让任意应用利用任意学习算法,方法是将学习算法概括成通用形式——所有应用都需要知道该形式。
我们迈向中计算法的第一步会简单得令人意外。事实证明,要将许多不同的学习算法结合成一个并不难,利用的就是元学习。
元学习在机器学习算法的箭袋中是最有力量的一支,它还是接下来要进入深层统一的垫脚石。
元学习算法本身可以是任意学习算法,从决策树到简单的权值投票。
一种类型的元学习被称为“堆叠”,还有一个更简单的元学习算法是“装袋”算法。
“装袋”算法通过重新取样的方法来产生训练集的随机变量,将同样的学习算法应用到每个训练集中,然后通过投票将结果结合起来。做这件事的原因是它可以减少变量:组合模型和任何单一模型相比,对于变幻莫测的数据的敏感度要低很多,这样提高准确度就变得很容易了。
最聪明的元学习算法之一就是推进。推进算法不是通过结合不同的学习算法,而是将相同的分类器不断应用到数据中,利用每个新的模型来纠正前面模型的错误。
元学习非常成功,但它却不是深入组合模型的方法。
如果机器学习是一块大陆,被分成5个区域,那么终极算法就是首都城市,矗立在5个区域会合的特殊地带。
如上图所示,外围的圆是“优化城”,中间是“评价城堡”,里层是“代表法之塔”。
代表法是一种形式语言,利用这种语言,学习算法会表达它的模型。
结合神经网络和遗传算法的方法就是利用遗传搜索来找到模型的结构,然后让梯度下降来填满它的参数。这就是自然所做的事:进化创造大脑结构,而个人经历则对这些结构进行调整。
你似乎已经将那5个优化程序总结为一个简单的方法:遗传搜索用于结构,梯度下降用于参数。