最终还是要学Pytorch,Tensorflow也很好,不过对于做研究来讲,还是有些许的不足,这算是Pytorch的一个入门吧。
针对y=w*x这样一个线性模型,利用穷举法去线性的模拟这个直线。虽然这一章并没有真的用到Pytorch的具体内容,不过这算是深度学习的一个入门。
代码如下:
import numpy as np
import matplotlib.pyplot as plt
#y = 2*x
x_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]
def forward(x):#根据穷举出来的w,计算在该w的情况下得到的y'
return x*w
def loss(x,y):#根据得到的y',计算loss值
y_pred = forward(x)
return (y-y_pred)**2
#穷举法
w_list = []
mse_list = []
for w in np.arange(0.0,4.1,0.1):#以0.1为间隔,穷举w
print("w=",w)
l_sum=0
for x_val,y_val in zip(x_data,y_data):
y_pred_val = forward(x_val)
loss_val = loss(x_val,y_val)
l_sum+=loss_val
print('\t',x_val,y_val,y_pred_val,loss_val)
print('MSE=',l_sum/3)
w_list.append(w)
mse_list.append(l_sum/3)
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()
最终得到的结果如下:
在w=2的时候,Loss值达到最小。
课后作业:
针对y=w*x+b,同样利用上述方法,得到一个近似的线性模型。
代码如下(参考链接):
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
#假设函数为y=2x+3
x_data = [1.0,2.0,3.0]
y_data = [5.0,7.0,9.0]
def forward(x):
return x*w+b
def loss(x,y):
y_pred = forward(x)
return (y_pred-y)**2
mse_list = []
W = np.arange(0.0,4.1,0.1)
B = np.arange(0.0,4.1,0.1)
[w,b] = np.meshgrid(W,B)
l_sum = 0
for x_val,y_val in zip(x_data,y_data):
loss_val = loss(x_val,y_val)
l_sum+=loss_val
fig = plt.figure()
ax = Axes3D(fig)
ax.plot_surface(w,b,l_sum/3)
plt.show()
对代码有疑问的,可以查看一下np.meshgrid这个函数的用法。它的返回值是两个矩阵,在本样例中就是两个41*41的矩阵。在后面的运算中也都是矩阵在运算.
最终结果如下所示:
努力加油a啊