day04-机器学习-梯度下降

import numpy as np
from matplotlib import pyplot as plt

theta_history = []
#损失函数
def J(theta):
    try:
        return (theta - 2.5)**2 - 1.0
    except:
        return float('inf')
#导数
def dJ(theta):
    return 2*(theta - 2.5)
def gradient_descent(initial_theta, eta, n_iters=1e4,epsilon = 1e-8):
    theta = initial_theta
    i_iters = 0
    while i_iters < n_iters:
        gradient = dJ(theta)
        last_theta = theta
        theta = theta - gradient * eta
        theta_history.append(theta)
        if (abs(J(theta) - J(last_theta))) < epsilon:
            break;
        i_iters = i_iters + 1

if __name__ == '__main__':
    plot_x = np.linspace(-1, 6, 150)
    plot_y_ = (plot_x - 2.5) ** 2 - 1
    theta = 0.0
    eta = 0.1
    gradient_descent(theta, eta, n_iters=100)
    plt.plot(plot_x, plot_y_)
    plt.plot(np.array(theta_history), J(np.array(theta_history)),color="r",marker='+')
    plt.show()
    print(theta)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值