Pytorch(一) --线性模型

最终还是要学Pytorch,Tensorflow也很好,不过对于做研究来讲,还是有些许的不足,这算是Pytorch的一个入门吧。
针对y=w*x这样一个线性模型,利用穷举法去线性的模拟这个直线。虽然这一章并没有真的用到Pytorch的具体内容,不过这算是深度学习的一个入门。
代码如下:

import numpy as np
import matplotlib.pyplot as plt
#y = 2*x
x_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]

def forward(x):#根据穷举出来的w,计算在该w的情况下得到的y'
    return x*w
def loss(x,y):#根据得到的y',计算loss值
    y_pred = forward(x)
    return (y-y_pred)**2
#穷举法
w_list = []
mse_list = []
for w in np.arange(0.0,4.1,0.1):#以0.1为间隔,穷举w
    print("w=",w)
    l_sum=0
    for x_val,y_val in zip(x_data,y_data):
        y_pred_val = forward(x_val)
        loss_val = loss(x_val,y_val)
        l_sum+=loss_val
        print('\t',x_val,y_val,y_pred_val,loss_val)
    print('MSE=',l_sum/3)
    w_list.append(w)
    mse_list.append(l_sum/3)
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

最终得到的结果如下:
在这里插入图片描述
在w=2的时候,Loss值达到最小。
课后作业:
针对y=w*x+b,同样利用上述方法,得到一个近似的线性模型。
代码如下(参考链接):

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D

#假设函数为y=2x+3
x_data = [1.0,2.0,3.0]
y_data = [5.0,7.0,9.0]

def forward(x):
    return x*w+b
def loss(x,y):
    y_pred = forward(x)
    return (y_pred-y)**2

mse_list = []
W = np.arange(0.0,4.1,0.1)
B = np.arange(0.0,4.1,0.1)
[w,b] = np.meshgrid(W,B)

l_sum = 0
for x_val,y_val in zip(x_data,y_data):
    loss_val = loss(x_val,y_val)
    l_sum+=loss_val

fig = plt.figure()
ax = Axes3D(fig)
ax.plot_surface(w,b,l_sum/3)
plt.show()

对代码有疑问的,可以查看一下np.meshgrid这个函数的用法。它的返回值是两个矩阵,在本样例中就是两个41*41的矩阵。在后面的运算中也都是矩阵在运算.
最终结果如下所示:
在这里插入图片描述
努力加油a啊

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

starlet_kiss

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值