梯度下降

在学习机器学习和深度学习入门的过程中,一个基础知识点是怎么也绕不开的–梯度下降
在本章节的内容中,我们将会解析梯度下降的意义,并且用代码来三维的显示出其特点:
在这里插入图片描述

结合我们前面学习的知识,以一维线性回归为例子,梯度下降算法是用来针对,利用某一数据集拟合出一条符合数据集分布的直线,从而达到可以预测下一个样本点的结果,在直线拟合的过程中,梯度下降法用来更新参数,以此来寻找使得损失函数最小的参数值。
执行代码如下:
Gradient_descent.py:

import numpy as np
import matplotlib.pyplot as plt
#Size of the points dataset
m = 20

#Points x-coordinate and dumpy value(x0, x1)
X0 = np.ones((m, 1))
X1 = np.arange(1, m+1).reshape(m, 1)
X = np.hstack((X0,X1))

#Points y-coordinate
y = np.array([
    3,4,5,5,2,4,7,8,11,8,12,
    11,13,13,16,17,18,17,19,21
]).reshape(m, 1)
'''
plt.plot(X1,y)
plt.show()
plt.scatter(X1,y)
plt.show()
'''

#The Learning Rate alpha
alpha = 0.01

def error_function(theta, X, y):
    '''Error function definition(误差函数)'''
    diff = np.dot(X, theta) - y
    return (1./2*m) * np.dot(np.transpose(diff), diff)

def gradient_function(theta, X, y):
    '''Gradient of the function J definition..(误差函数J梯度定义,对theta求导结果)'''
    diff = np.dot(X, theta) - y
    return (1./m) * np.dot(np.transpose(X), diff)

def gradient_descent(X, y, alpha):
    '''Perform gradient descent'''
    theta = np.array([1, 1]).reshape(2, 1)
    gradient = gradient_function(theta, X, y)#梯度下降最快的方向
    while not np.all(np.absolute(gradient) <= 1e-5):
        theta = theta - alpha * gradient
        gradient = gradient_function(theta, X, y)
    return theta

optimal = gradient_descent(X, y, alpha)
print('optimal:', optimal)
print('error function:', error_function(optimal, X, y)[0, 0])
#绘制拟合后的图形和散点图
plt.rcParams['font.sans-serif'] = 'SimHei' #用于正常显示中文
plt.title('数据散点图及其梯度下降法拟合出的直线')#添加标题
plt.xlabel('x')#添加x轴的名称
plt.ylabel('y')#添加y轴的名称
plt.xlim([0, 20])##确定x轴范围
plt.ylim([0, 20])##确定y轴范围
plt.xticks([0,5,10,15,20])#规定x轴刻度
plt.yticks([0,5,10,15,20])#规定y轴刻度
plt.plot(X,optimal[0]+optimal[1]*X)
plt.scatter(X1,y)
plt.show()

拟合出来的结果如下图:
在这里插入图片描述

二维图像,可能并不够直观,理解的过程中,我们可以发现,梯度下降法的思想就是一个下山的过程:

在这里插入图片描述
与此同时,我们通过绘制损失函数的三维图像,来形象的表现出“山谷”这一重要概念:
下面是需要执行的代码:
Loss_Function.py

from mpl_toolkits import mplot3d
import matplotlib.pyplot as plt
import numpy as np

plt.rcParams['axes.unicode_minus'] = False  ## 设置正常显示符号,主要是负号的显示

a = np.arange(-1, 3, 0.1)
N = a.size
Z = np.zeros((N, N))


def error_function(theta):
    '''Error function J definition.'''
    m = 20
    X0 = np.ones((m, 1))
    X1 = np.arange(1, m + 1).reshape(m, 1)
    X = np.hstack((X0, X1))
    y = np.array([
        3, 4, 5, 5, 2, 4, 7, 8, 11, 8, 12,
        11, 13, 13, 16, 17, 18, 17, 19, 21
    ]).reshape(m, 1)
    diff = np.dot(X, theta) - y
    return (1. / 2 * m) * np.dot(np.transpose(diff), diff)


for i in range(0, N):
    for j in range(0, N):
        theta = np.array([[a[i], a[j]]]).reshape(2, 1)
        Z[i][j] = error_function(theta)

X, Y = np.meshgrid(a, a)
ax = plt.axes(projection='3d')
fig = plt.figure()
# ax = Axes3D(fig)
# ax.plot_surface(X, Y, Z)
# 调整观察角度和方位角。这里将俯仰角设为45度,把方位角调整为90度
# ax.view_init(60, 45)
ax.plot_surface(X, Y, Z, rstride=1, cstride=1, cmap='rainbow', edgecolor='none')
plt.show()

拟合出来的结果如下图:
在这里插入图片描述
在详解了梯度下降法定义和案例之后,我们再从数学的角度对其进行一个直观的展示,同时,使用三维过程来绘制梯度下降的流程:
在这里插入图片描述
需要执行的代码如下:
Loss_Function_3D.py

import numpy as np
import matplotlib.pyplot as plt
from ipywidgets import *
from mpl_toolkits import mplot3d #用于绘制3D图形
#梯度函数的导数
def gradJ1(theta):
    return 4*theta
def gradJ2(theta):
    return 2*theta
 
#梯度函数
def f(x, y):
    return  2*x**2 +y**2

def ff(x,y):
    return 2*np.power(x,2)+np.power(y,2)

def train(lr,epoch,theta1,theta2,up,dirc):
    t1 = [theta1]
    t2 = [theta2]
    for i in range(epoch):
        gradient = gradJ1(theta1)
        theta1 = theta1 - lr*gradient
        t1.append(theta1)
        gradient = gradJ2(theta2)
        theta2 = theta2 - lr*gradient
        t2.append(theta2)
        
    plt.figure(figsize=(10,10))     #设置画布大小
    x = np.linspace(-3,3,30)
    y = np.linspace(-3,3,30)
    X, Y = np.meshgrid(x, y)
    Z = f(X,Y)    
    ax = plt.axes(projection='3d')
    fig =plt.figure()
    #ax1 = plt.subplot(2, 1, 1)
    #ax.plot_surface(X, Y, Z, rstride=1, cstride=1, cmap='viridis', edgecolor='none') #曲面图
    #ax.plot_wireframe(X, Y, Z, color='c') #线框图
    ax.contour3D(X, Y, Z, 50, cmap='binary')#等高线图
    #fig =plt.figure()
    #print(t1)
    #print(ff(t1,t2)+10)
    #ax1 = plt.subplot(2, 2, 1)
    ax.scatter3D(t1, t2, ff(t1,t2), c='r',marker = 'o')
    #ax.plot3D(t1, t2,  ff(t1,t2),'red')
    #调整观察角度和方位角。这里将俯仰角设为60度,把方位角调整为35度
    ax.view_init(up, dirc)

#可以随时调节,查看效果 (最小值,最大值,步长)
@interact(lr=(0, 2, 0.0002),epoch=(1,100,1),init_theta1=(-3,3,0.1),init_theta2=(-3,3,0.1),up=(-180,180,1),dirc=(-180,180,1),continuous_update=False)
#lr为学习率(步长) epoch为迭代次数   init_theta为初始参数的设置 up调整图片上下视角 dirc调整左右视角
def visualize_gradient_descent(lr=0.05,epoch=10,init_theta1=-2,init_theta2=-3,up=45,dirc=100):
    train(lr,epoch,init_theta1,init_theta2,up,dirc)

与此同时,Learning rate = lr = 0.05, epoch=iteration=50;输出中展示了模型寻找损失函数的最小点的过程:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值