b站视频链接:https://www.bilibili.com/video/BV1Y7411d7Ys?p=2
深度学习实践(1) 线性回归
这次主要是初步用穷举法实现深度学习的线性回归。
假设给出一组数据符合y=2x,(这里的2我们并不知道,是要求的未知量。)
如何求呢?用穷举法。
我们知道线性函数是y=w*x(假设b=0)
设w=1;把x带入,得到y_pre(y的预测值)
而损失函数就是loss=∑(y-y_pre)^2
当loss最小时,也就是得到了最符合的w,很明显,loss是一个二次函数
代码实现:
import numpy as np
import matplotlib.pyplot as plt
# 数据集
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
n=3# 因为只有三组数据
# 模型 y=w*x
def forward(x):
return x * w
# 损失函数loss
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2
# 用于画图
w_list = []
mse_list = []
# 穷举法,最后发现当w=2.0时,loss=0,所以w=2时最好
for w in np.arange(0.0, 4.1, 0.1):
print("当w=", w,"时")
l_sum = 0
for x_val, y_val in zip(x_data, y_data): # zip把两个打包成元组列表
y_pred_val = forward(x_val)
loss_val = loss(x_val, y_val)
l_sum += loss_val
print("\t", x_val, y_val, y_pred_val, loss_val)
print("均方误差MSE=", l_sum / 3)
# 最终的图像为二次函数图像
w_list.append(w) # w为x轴
mse_list.append(l_sum / n) # 均方误差为y轴
# Loss=1/n( ∑(y`-y)^2 )
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()