目的
当我们建立好机器学习模型后,预测数据会与我们期望的有所偏差,这时我们就需要进行参数调整。
模型调参
调参,我们主要有3种常见的模式。
贪心调参方法
网格调参方法
贝叶斯调参方法
贪心调参方法是指,在对问题求解时,总是做出在当前看来是最好的选择。也就是说,不从整体最优上加以考虑,它所做出的仅仅是在某种意义上的局部最优解。选择的贪心策略必须具备无后效性
网格调参方法是指当你算法模型效果不是很好时,可以通过该方法来调整参数,通过循环遍历,尝试每一种参数组合,返回最好的得分值的参数组合。但是容易出现过拟合。
贝叶斯调参方法通过基于目标函数的过去评估结果建立替代函数(概率模型),来找到最小化目标函数的值。贝叶斯方法与随机或网格搜索的不同之处在于,它在尝试下一组超参数时,会参考之前的评估结果,因此可以省去很多无用功。但是超参数的评估代价很大,因为它要求使用待评估的超参数训练一遍模型,而许多深度学习模型动则几个小时几天才能完成训练,并评估模型,因此耗费巨大。贝叶斯调参发使用不断更新的概率模型,通过推断过去的结果来“集中”有希望的超参数。
综合上述概况,3种调参都有优缺点,熟练掌握,灵活运用才是关键。
内容部分
从模型创建开始说起,常见的模型:
线性回归模型
决策树模型
GBDT模型
XGBoost模型
LightGBM模型
简单介绍一下几种模型:
线性回归是一种被广泛应用的回归技术,也是机器学习里面最简单的一个模型,它有很多种推广形式,本质上它是一系列特征的线性组合,在二维空间中&