24/8/13算法笔记 复习_梯度下降

import matplotlib.pyplot as plt
import numpy as np

#构建方程
f = lambda x:(x-3.5)**2-4.5*x+10
#构建导数
g = lambda x:2*(x-3.5)-4.5

x = np.linspace(0,11.5,100)#这段代码使用了NumPy库来生成一个线性空间的数组 x 和根据给定的函数 f 计算对应的 y 值。
y = f(x)

#可视化
plt.plot(x,y)

eta = 0.1#学习率

#梯度下降
x = np.random.randint(0,12,size = 1)[0]  #生成一个随机整数,【0】获取第一个

#每次while循环,记录上一次值,为了比较
last_x = x + 0.1

#精确度
precision = 0.0001

print('------随机x是',x)

#每次梯度下降,求解出的x值,一开始随机给
x_ = [x]     #x_ 是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的 x 值。这有助于观察算法的收敛过程。
count = 0

while True:
    if np.abs(x-last_x)<precision: #小于精确度,更新时变化甚微
        break;
   #更新梯度下降 
   #x时当前值,赋值给上一个值
    last_x = x
    count += 1
    x = x -eta*g(x) #梯度更新,减去学习率*导数
    x_.append(x)
    print('*********梯度下降次数',count)
    #x1是numpy数组
x1 = np.linspace(0,11.5,100)
y1 = f(x1)
plt.plot(x1,y1)

x_ = np.array(x_)

plt.scatter(x_,f(x_),color = 'red',s = 30)

在这段代码中,x_ 被用来记录梯度下降过程中每次迭代的 x 值。以下是 x_ 的具体用途和代码中相关部分的解释:

  1. 记录迭代过程x_ 是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的 x 值。这有助于观察算法的收敛过程。

  2. 可视化梯度下降路径:在梯度下降算法完成后,x_ 被转换成一个NumPy数组,并使用 plt.scatter 函数绘制成散点图。这显示了算法是如何逐步逼近最优解的。

  3. 散点图表示plt.scatter(x_, f(x_), color='red', s=30) 这一行代码在图上绘制了 x_ 的值对应的函数值 f(x_)。散点图用红色表示,每个点的大小为30。

  4. 算法收敛性分析:通过观察 x_ 列表中 x 值的变化,可以分析梯度下降算法的收敛性。如果 x 值在迭代过程中变化很小,说明算法可能已经接近或达到最优解。

  5. 终止条件while 循环中的终止条件 if np.abs(x-last_x) < precision: 检查当前 x 值与上一次迭代的 x 值之间的绝对差是否小于预设的精确度 precision。如果是,算法终止,认为已经收敛到最优解。

  6. 迭代次数记录:变量 count 记录了梯度下降算法迭代的次数,每次迭代都会输出当前的迭代次数,帮助了解算法的迭代过程。

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值