6.1/2.特征缩放
如果用原来的数据的话图形比较扁,有可能会多次反弹,而特征缩放了以后就是圆形就比较好梯度下降了。
如何特征缩放
1.除以最大值
对于原来300~2000除以最大的2000后变道0.15~1,同理0~5变到0~1
2.均值正常化
对于原来的函数缩放让他们既有正值又有负值,通常在-1~1之间
先求x1的均值μ1,下一步是求之后的规范化x1,得到-0.18到0.82,同理求x2
3.Z分数归一化
需要计算每个特征的标准差μ,即正态分布(钟形曲线)(高斯分布)的标准差
特征值为σ
6.3检查梯度下降是否收敛
6.4学习率的选择
左上的图函数不是趋于收敛说明有bug
左下说明学习率过大
在调试中可以把学习率设为比较小,但是这不是训练时的好的选择
可以十倍十倍尝试0.001,0.01,0.1,1
6.5特征工程
先是x1为长度x2为宽度,可以得出第一个方程
然后x3为x1乘x2即面积,这样又多了一个评估的指标,这样算法更精确
6.6多项式回归
可以有很多种模型
scikit-learn:Python 中的机器学习 — scikit-learn 1.5.1 文档https://scikit-learn.org/stable/index.htmlscikit-learn是一个机器学习的开源库