理论学习
本周则继续学习在金融分控领域常用的机器学习模型,并学习机器学习模型的建模过程与调参流程。
其中本周重点是学习了如何对模型进行调参,详细料及了贪心调参、网格搜索调参、贝叶斯调参这三种方法,
贪心调参先使用当前对模型影响最大的参数进行调优,达到当前参数下的模型最优化,再使用对模型影响次之的参数进行调优,如此下去,直到所有的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,但是只需要一步一步的进行参数最优化调试即可,容易理解。
网格搜索,sklearn 提供GridSearchCV用于进行网格搜索,只需要把模型的参数输进去,就能给出最优化的结果和参数。相比起贪心调参,网格搜索的结果会更优,但是网格搜索只适合于小数据集,一旦数据的量级上去了,很难得出结果。
贝叶斯调参的主要思想是:给定优化的目标函数(广义的函数,只需指定输入和输出即可,无需知道内部结构以及数学性质),通过不断地添加样本点来更新目标函数的后验分布(高斯过程,直到后验分布基本贴合于真实分布)。简单的说,就是考虑了上一次参数的信息,从而更好的调整当前的参数。
实践学习
本周主要的任务是学习了网上相关的教程方法,并根据他们的方法自己实践学习。同时对相关参数进行了调整。本次项目的数据量较大,网格搜索调参会特别特别慢。
本周得到的成绩如图所示: