此前我们进行了梯度下降法的推导,所引用的基本公式为
现在我们根据梯度下降法解决实际问题:
其实我们每次更新的迭代,要遍历训练数据中所有的样本进行计算,如果我们的样本非常大,比如数百万到数亿,那么计算量异常巨大。因此,我们需要重新更新算法使每次更新的迭代,只计算一个样本。这样对于一个具有数百万样本的训练数据,完成一次遍历就会对更新数百万次,效率大大提升,因此我们设置一个for循环进行循环迭代从而进行进一步的计算,次数不宜过多但也不宜过少,过多可能会超出范围,过少的话结果可能不会特别精确。
代码如下: