人工智能基础(十四)线性回归API
api介绍
1、梯度下降法
sklearn.linear_model.SGDRegressor(loss=“squared_loss”, fit_intercept=True, learning_rate =‘invscaling’, eta0=0.01)
参数:
1、loss — 损失(最小二乘)
2、learning rate — 学习率
一般时都是进行动态的更新,也可以指定成为一个常数,但是不推荐 。
梯度下降法介绍
1、全梯度下降算法(FG)
在进行计算的时候,计算所有样本的误差平均值,作为我的目标函数
2、随机梯度下降算法(SG)
每次只选择一个样本进行考核
3、下批量梯度下降算法(mini-bantch)
选择一部分样本进行训练
4、随机平均梯度下降算法(SAG)
会给每个样本都维持一个平均值,后期计算的时候,参考这个平均值