梯度下降(Gradient Descent)

1.基本思想简介

http://www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_descent.html


2.一个简例

一个通过迭代求解convex function最小值的方法: Gradient descent(梯度下降法)

http://en.wikipedia.org/wiki/Gradient_descent

这里给出一个python的代码:

The gradient descent algorithm is applied to find a local minimum of the function f(x)=x4-3x3+2 , with derivative f'(x)=4x3-9x2. Here is an implementation in the Python programming language.

#  From calculation, we expect that the local minimum occurs at x=9/4

xOld 
=  0
xNew 
=   6   #  The algorithm starts at x=6
eps  =   0.01   #  step size
precision  =   0.00001

def  f_prime(x):
return   4   *  x ** 3   -   9   *  x ** 2

while  abs(xNew  -  xOld)  >  precision:
xOld 
=  xNew
xNew 
=  xOld  -  eps  *  f_prime(xNew)
print ( " Local minimum occurs at  " , xNew)


3.线性回归和批量梯度下降法python


http://www.cnblogs.com/Key-Ky/archive/2013/12/10/3468290.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值