去年看了一本推荐一本真正意义上的神书《Deep Learning》,这本书之所以说他神,主要是从头到尾讲清楚了该领域的各个细节,这本书的一大特点是介绍深度学习算法的本质,脱离具体代码实现给出算法背后的逻辑,不写代码的人也完全可以看,可以根据自己的背景或需要,随意挑选阅读。所以读起来很过瘾。
之前也看过一些DL的书,大多数书讲解模型时,都只会讲一个在某种情形下简化的特殊版本。如针对分类的模型,讲了一个0-1两类分类模型就结束了,如何应用到多分类就一笔带过。再比如回归模型,也只是讲个单变量不带正则项的最简化版。至于加什么正则、为什么这么加更是很少涉及的话题,带你从模型的motivation、模型的推导过程、模型的推广、这个模型和其他模型的联系等方方面面讲解,而且每一个部分都很详细,都有非常细致的推导过程,每步推导过程还都有解释,这真的是太贴心了。
Deep Learning本身并不难,难的是如何吃透问题,可以用Deep Learning的逻辑去思考自己的问题,有针对性地设计模型;难的是你有分析问题和结果的能力,遇到负面结果不是抓瞎。
说了那么多,其实我想表达的是:与其对很多模型一知半解,不如真正学懂一个模型,这样其实是节省时间的。原因在于当你搞懂一个模型后,就算你忘记了某些细节,再次查看资料也可以很快回忆起来。而当你不懂一个模型时,每次回忆都要从零开始,免得来来回回其实浪费了很多时间。