homework2_SGD

这里的SGD:使用某个随机样本的gradient来update,以求越过鞍点
(现在一般用mini-batch)

import numpy as np
import matplotlib.pyplot as plt

# 创建数据
x_data = np.random.randint(1, 10, size=(3))
y_data = x_data * 2

w = 1.0    # 设置初值

def forward(x):
    return x * w


# 对某个随机样本求loss
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2

# 对某个随机样本求gradient
def gradient(x, y):
    grad = 2 * x * (w * x - y)
    return grad


loss_list = []
for epoch in range(50):
    l_sum = 0
    # 以同一顺序打乱x_data和y_data
    shuffle_ix = np.random.permutation(np.arange(x_data.shape[0]))
    x_data = x_data[shuffle_ix]
    y_data = y_data[shuffle_ix]

    for x, y in zip(x_data, y_data):
        grad = gradient(x, y)   # 求随机样本的grad
        w = w - 0.005 * grad     # 更新w
        print("grad: ", grad)
        loss_val = loss(x, y)   # 求loss
        l_sum += loss_val
    loss_list.append(l_sum / x_data.shape[0])
    print("Epoch: ", epoch, "\t", "w: ", w, "\t", "loss: ", loss_val)

plt.plot(range(50), loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()
plt.close()

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值