学习《机器学习实战》四

训练模型

训练模型就是搜寻使成本函数(在训练集上)最小化的参数组合。
有助于快速定位到合适的模型、正确的训练算法,以及一套适当的超参数。
在这里插入图片描述

一、线性回归(LinearRegression)

线性模型就是对输入特征加权求和,再加上一个偏置项的常数,以此进行预测。
线性回归模型预测:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
衡量一个回归模型性能指标:均方根误差(RMSE),但求均方误差(MSE)更方便
在这里插入图片描述
我们生成一些线性数据来测试这个公式

import numpy as np

X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

X表示100个数据的1个特征属性
以点的形式来表示100个数据:
生成的线性函数是y=4+3x

from matplotlib import pyplot as plt

plt.xlabel("X") 
plt.ylabel("y")
plt.scatter(X, y, marker = 'o', color = 'green', s = 40)
plt.show()

在这里插入图片描述
现在,我们使用标准方程来计算θ。使用Numpy的线性代数模块(np.linalg)中的inv()函数来对矩阵求逆,并用dot()方法计算矩阵内积:

X_b = np.c_[np.ones((100, 1)), X]
theta_best = np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(y)
theta_best

得到
array([[3.86709543],
[3.16372488]])
现在可以用θ做预测了

X_new = np.array([[0],[2]])
X_new_b = np.c_[np.ones((2,1)), X_new]
y_predict = X_new_b.dot(theta_best)
y_predict

这是预测X=0和X=2的值
得到
array([[ 3.86709543],
[10.19454519]])
在这里插入图片描述
绘制模型的预测结果

plt.plot(X_new, y_predict, "r-")
plt.plot(X, y, "b.")
plt.axis([0, 2, 0, 15])
plt.show()

在这里插入图片描述
Scikit-Learn的等效代码

from sklearn.linear_model import LinearRegression
lin_reg = LinearRegression()
lin_reg.fit(X, y)
lin_reg.intercept_, lin_reg.coef_

注意:Scikit-Learn将偏置项(intercept_)和特征权重(coef_)分离开了。
得到
(array([3.86709543]), array([[3.16372488]]))
结果与上面得到的结果一致。

二、梯度下降

适合于特征数或者训练实例数量大到内存无法满足要求的场景
梯度下降的中心思想就是迭代地调整参数从而使成本函数最小化
梯度下降的做

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值