机器学习入门训练4-梯度下降

负梯度

在这里插入图片描述
梯度下降有点像人下山,为了节省时间挑选最快下山路径,用到的是高数的求导。

1.定义简单的二次函数及其导数。
初始值是一开始下山的位置,学习率是下山走路的步子,步子大就下的快。
每一步都对位置进行更新,这里要注意关注的位置是在同一个坐标轴维度。

def f(x):
    return x ** 2 + 2 * x  
def gradf(x):
    return 2 * x + 2 
x0 = 0 # 初始值
eta = 1e-4 #学习率
for step in range(20):
    g = gradf(x0)
    x0 = x0 - eta * g 
    print(f"Setp:{step}, {x0}, {f(x0)}")

2.二元二次函数,偏导。

def f(x1, x2):
    return x1 ** 2 + 2 * x1 + x2 ** 2 + x2 
def gradf(x1, x2):
    return 2 * x1 + 2, 2 * x2 + 1 
x1, x2 = 0, 0 # 初始值 
eta = 0.3 # 学习率 
for step in range(200):
    g1, g2 = gradf(x1, x2)
    x1 = x1 - eta * g1 
    x2 = x2 - eta * g2  
    print(f"Setp:{step}, {(x1, x2)}, {f(x1, x2)}")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值