机器学习 | 实验一:线性回归

⭐️对应笔记

📚描述

第一个练习将提供线性回归练习。这些练习已经在Matlab上进行了广泛的测试。但它们也应该在中工作,这被称为“Matlab的免费版本”。如果您使用的是Octave,请确保安装Image包(可在Windows中作为选项使用)安装程序,可从Octave-Forge获得Linux。

📚数据

数据包里包含了一些测量2到8岁之间不同男孩身高的例子。y值是以米为单位测量的高度x值是与身高对应的男孩的年龄。每个身高和年龄元组在我们的数据集中构成了一个训练示例 ( x ( i ) , y ( i ) ) (x ^{(i)},y ^{(i)}) (x(i)y(i))。有m = 50个训练示例,我们用它们来开发一个线性回归模型。

📚监督学习问题

在这个问题中,我们使用梯度下降来实现线性回归。在Matlab/Octave中,我们可以使用这些命令加载训练集

x=load('ex1x.dat');
y=load('ex1y.dat');

这将是我们针对具有n=1特征的监督学习问题的训练集(除了通常的 x 0 = 1 x_0 = 1 x0=1,所以 x ∈ R 2 x∈R_2 xR2)。用以下命令绘制训练集(并标记轴)

figure %open a new figure window(%是注释)
plot(x,y,'o');
ylabel('Height in meters')
xlabel('Age in years')

我们能看到一系列如下的数据点
在这里插入图片描述
在开始梯度下降之前,我们需要向每个示例中添加 x 0 = 1 x_0 = 1 x0=1

m=length(y);%store the number of training examples(这里的m是约定符号)
x=[ones(m,1),x];%Add a column of ones to x

从这一点开始,我们需要记住,训练数据的年龄值实际上在x的第二列。这在以后绘制结果时很重要。

📚二维线性回归

现在,我们将对这个问题实现线性回归。回想一下,线性回归模型是 h θ ( x ) = θ T X h_\theta(x)=\theta^TX hθ(x)=θTX,并且现在这种情况是 θ 0 + θ 1 x 1 \theta_0+\theta_1x_1 θ0+θ1x1。而梯度下降更新规则为:在这里插入图片描述

(1) 使用α = 0.07学习率实现梯度下降。将参数初始化 θ 0 = θ 1 = 0 θ_0 = θ_1 = 0 θ0=θ1=0,并从这个初始起点运行一次梯度下降的迭代。记录第一次迭代后得到的 θ 0 θ_0 θ0 θ 1 θ_1 θ1的值

alpha=0.07;%learning rate
%initial theta
theta0=0;
theta1=0;

%after one iteration
theta0=theta0-alpha*(1/m)*sum((theta0.*x(:,1)+theta1.*x(:,2)-y).*x(:,1));
theta1=theta1-alpha*(1/m)*sum((theta0.*x(:,1)+theta1.*x(:,2)-y).*x(:,2));

👇得到第一次迭代后 θ 0 θ_0 θ0 θ 1 θ_1 θ1的值👇

在这里插入图片描述

(2) 继续运行梯度下降,进行更多的迭代,直到θ收敛(这总共需要大约1500次迭代)。收敛后,记录得到的 θ 0 θ_0 θ0 θ 1 θ_1 θ1的最终值,并根据θ在与训练数据相同的图上绘制算法的直线拟合。绘图命令将如下所示:

theta0(1,1)=0.074528;
theta1(1,1)=0.3543;
maxlter=1500;%max iteration
for i=1:maxlter-1
	theta0(i+1,1)=theta0(i,1)-alpha*(1/m)*sum((theta0(i,1).*x(:,1)+theta1(i,1).*x(:,2)-y).*x(:,1));
	theta1(i+1,1)=theta1(i,1)-alpha*(1/m)*sum((theta0(i,1).*x(:,1)+theta1(i,1).*x(:,2)-y).*x(:,2));
end
hold on;%plot new data without clearing old plot
plot(x(:,2),theta0(i+1,1)+x(:,2)*theta1(i+1,1),'-');
legend('Training data','Linear regression');

在这里插入图片描述

迭代1500次后, θ 0 θ_0 θ0=0.75015, θ 1 θ_1 θ1=0.063883。

⚠️在这里我们提前预知了大致的迭代次数,当我们不能提前预知时,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。

在这里插入图片描述

⚠️也有一些自动测试是否收敛的方法,例如将代价函数的变化值与某个阀值(例如 0.001)进行比较。

👀从变量编辑器中看到,趋于收敛时,迭代后值基本就不变了

在这里插入图片描述

注意,对于大多数机器学习问题,x是非常高维的,所以我们不能绘制 h θ ( x ) h_θ(x) hθ(x)。但是因为在这个例子中,我们只有一个特性,如果能够绘制出来,我们的结果就会得到一个很好的完整性检查。

(3) 最后,我们用学习到的假设来做一些预测。用所得到的模型来预测两个3.5岁和7岁的男孩的身高。

  • 已知假设函数大致为: 0.7501 + 0.0639 x 0.7501+0.0639x 0.7501+0.0639x
  • 3.5岁: θ 0 + 3.5 θ 1 = 0.7501 + 3.5 × 0.0639 = 0.9738 m \theta_0+3.5\theta_1=0.7501+3.5×0.0639=0.9738m θ0+3.5θ1=0.7501+3.5×0.0639=0.9738m
  • 7岁: θ 0 + 7 θ 1 = 0.7501 + 7 × 0.0639 = 1.1974 m \theta_0+7\theta_1=0.7501+7×0.0639=1.1974m θ0+7θ1=0.7501+7×0.0639=1.1974m

📚理解J(θ)

我们想更好地了解梯度下降所做的事情,并可视化参数 θ ∈ R 2 θ∈R^2 θR2 J ( θ ) J(θ) J(θ)之间的关系。在这个问题中,我们将把 J ( θ ) J(θ) J(θ)绘制为一个三维曲面图。

在这里插入图片描述

在这里插入图片描述

当应用学习算法时,我们通常不会尝试绘制 J ( θ ) J(θ) J(θ),因为通常 θ ∈ R n θ∈R^n θRn是非常高维的,所以我们没有任何简单的方法来绘制或可视化 J ( θ ) J(θ) J(θ)。但是因为这里的例子使用了一个非常低维的 θ ∈ R 2 θ∈R^2 θR2,我们将绘制 J ( θ ) J(θ) J(θ)来获得更多关于线性回归的直觉。

%以下代码中的参数为指导书指定
J_vals=zeros(100,100); 
theta0_vals=linspace(-3,3,100);
theta1_vals=linspace(-1,1,100);
% linespace(x1,x2,N)中,x1、x2、N分别为起始值、终止值、元素个数。
for i=1:length(theta0_vals)
 	for j=1:length(theta1_vals)
		t=[theta0_vals(i);theta1_vals(j)];
  		J_vals(i,j)=(0.5/m)*(x*t-y)'*(x*t-y);
 	end
end
J_vals = J_vals'; %转置
figure;
surf(theta0_vals,theta1_vals,J_vals);
xlabel('\theta_0');
ylabel('\theta_1');

在这里插入图片描述

这个3D曲面和实现梯度下降时发现的θ0和θ1值之间的关系是什么

这个3D曲面的最低点所对应的 θ 0 θ_0 θ0 θ 1 θ_1 θ1就是所求的假设函数对应的 θ 0 θ_0 θ0 θ 1 θ_1 θ1


扩展补充:surf函数

目 录 ............................................................... I 实验 1 监督学习中的分类算法应用 .................................. - 1 - 实验目标 .................................................. - 1 - 实验软、硬件环境 .......................................... - 1 - 实验任务.................................................. - 2 - 实验 1.1 Python 开发环境搭建 ...................................... - 2 - 实验目标 .................................................. - 2 - 实验任务 .................................................. - 2 - (1)Python 安装与配置 ............................. - 2 - (2)Pycharm 安装和配置 ............................ - 4 - (3)Python 中安装第三方库 ........................ - 11 - 实验 1.2 K-近邻算法实现 ......................................... - 14 - 实验目标 ................................................. - 14 - 实验任务 ................................................. - 14 - (1)电影类别分类 ................................. - 14 - (2)约会网站配对效果判定 ......................... - 14 - 实验 1.3 决策树算法实现 ......................................... - 16 - 实验目标 ................................................. - 16 - 实验任务 ................................................. - 16 - (1)银行房屋贷款申请 ............................. - 16 - (2)患者佩戴隐形眼镜类型预测 ..................... - 17 - 实验 1.4 朴素贝叶斯算法实现 ..................................... - 19 - 实验目标 ................................................. - 19 - 实验任务 ................................................. - 19 - (1)文本分类 1 ................................... - 19 - (2)文本分类 2 ................................... - 19 - 实验 1.5 Logistic 回归算法实现 ................................... - 21 - 实验目标 ................................................. - 21 - 目 目 录 II 实验任务 ................................................. - 21 - (1)构建 Logistic 回归分类模型 .................... - 21 - (2)预测患疝气病的马的存活问题 ................... - 21 - 实验 1.6 SVM 算法实现 ............................................ - 23 - 实验目标 ................................................. - 23 - 实验任务 ................................................. - 23 - (1)构建 SVM 分类模型 ............................. - 23 - 实验 1.7 监督学习中的分类算法综合应用 ........................... - 24 - 实验目标 ................................................. - 24 - 实验任务 ................................................. - 24 - (1)手写识别系统 ................................. - 24 - (2)电子邮件垃圾过滤 ............................. - 25 - 实验 2 监督学习中的回归算法应用 ................................. - 26 - 实验目标 ................................................. - 26 - 实验软、硬件环境 ......................................... - 26 - 实验任务 ................................................. - 26 - (1)鲍鱼年龄预测 ................................. - 26 - (2)乐高玩具价格预测 ............................. - 27 - 实验 3 无监督学习中的聚类算法应用 ............................... - 29 - 实验目标 ................................................. - 29 - 实验软、硬件环境 ......................................... - 29 - 实验任务 ................................................. - 29 - (1)使用 K 均值算法对数据进行聚类分析 ............. - 29 - (2)对地图上的点进行聚类 ......................... - 30 -
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

啦啦右一

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值