![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
简约AI
It's no use doing what you like, you have got to like what you do.
展开
-
理解梯度下降(二)- spark和python分别实现批量梯度下降
上一篇通俗理解-梯度下降法(一)说明梯度下降的数学原理,这一篇讲讲具体的实现。分为spark(scala)实现和python版本具体实现批量梯度下降(Batch gradient descent)。最后引出下一篇的问题。 spark版本 假设目标函数y=θx,spark模拟梯度下降法求解参数θ的值。 直接上代码: import scala.collection.mutable.Hash...原创 2019-02-28 00:14:01 · 594 阅读 · 1 评论 -
理解梯度下降(三)- python实现随机梯度下降
上一篇理解梯度下降(二)- spark和python分别实现批量梯度下降实现了简单的批量梯度下降。最后引出了随机梯度下降(Stochastic gradient descent)。 什么是随机梯度下降,SGD是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;SGD的优势是更快地计算梯度。 我们先回顾以下全批量法是如何计算每次迭代中的...原创 2019-03-02 00:03:07 · 1294 阅读 · 0 评论 -
通俗理解-梯度下降法(一)- 数学基础
什么是梯度下降 梯度下降法(gradient descent)是一种常见的一阶(first-order)优化方法,是求解无约束优化问题最简单、最经典的方法之一。所谓的一阶方法就是仅使用目标函数的一阶导数,不利用其高阶导数。 那什么是无约束优化问题呢?举个例子,在一元函数法f(x)的图像中,求无约束最优化问题,即不对定义域或值域做任何限制的情况下,求解函数f(x)的最小值。 没有理解,没事儿,本...原创 2019-02-26 23:32:27 · 7624 阅读 · 0 评论