吴恩达机器学习课后作业深度解析(附答案)(ex1)

作业ex1题目及答案源码下载地址ex1题目及答案

一. 单变量线性回归

问题背景:假如你是餐馆老板,已知若干城市中人口和利润的数据(ex1data1.txt),用线性回归方法计算该去哪个城市发展。 ex1.m是官方提供的入口函数,通过该函数补全其他函数的代码。

  1. warmUpExercise.m:输出5*5的单位矩阵
A = eye(5);

Matlab中,eye(n) 返回n*n的单位矩阵,eye(m,n) 返回m*n的单位矩阵

  1. plotData.m:给定x、y两列向量,画出相应点
figure; % open a new figure window
plot(x, y, 'rx', 'MarkerSize', 10); % Plot the data
ylabel('Profit in $10,000s'); % Set the y   axis label
xlabel('Population of City in 10,000s'); % Set the x   axis label
  1. computeCost.m:计算代价
    假设hypothesis函数为
    h θ = θ T x = θ 0 + θ 1 x 1 h_\theta=\theta^Tx=\theta_0+\theta_1 x_1 hθ=θTx=θ0+θ1x1
    一共m个数据,代价函数为
    J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 J(θ)=2m1i=1m(hθ(x(i))y(i))2
J = sum((X * theta - y).^2) / (2*m); 
  1. gradientDescent.m:计算梯度
    为方便求导,将 J ( θ ) J(\theta) J(θ)写成如下形式
    J ( θ ) = 1 2 m [ ( h θ ( x ( 1 ) ) − y ( 1 ) ) 2 + ( h θ ( x ( 2 ) ) − y ( 2 ) ) 2 + . . . ] J(\theta)=\frac{1}{2m}[(h_\theta(x^{(1)})-y^{(1)})^2+(h_\theta(x^{(2)})-y^{(2)})^2+...] J(θ)=2m1[(hθ(x(1))y(1))2+(hθ(x(2))y(2))2+...]
    θ 1 \theta_1 θ1求偏导得
    ∂ ∂ θ 1 J ( θ ) = 1 2 m [ 2 ( h θ ( x ( 1 ) ) − y ( 1 ) ) x 1 ( 1 ) + 2 ( h θ ( x ( 2 ) ) − y ( 2 ) ) x 1 ( 2 ) + . . . ] = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x 1 ( i ) \begin{aligned} \frac{\partial}{\partial{\theta_1} }J(\theta)=&\frac{1}{2m}[2(h_\theta(x^{(1)})-y^{(1)})x^{(1)}_1+2(h_\theta(x^{(2)})-y^{(2)})x^{(2)}_1+...]\\ =&\frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_1 \end{aligned} θ1J(θ)==2m1[2(hθ(x(1))y(1))x1(1)+2(hθ(x(2))y(2))x1(2)+...]m1i=1m(hθ(x(i))y(i))x1(i)
    所以有
    θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) , ( j = 0 , 1 ) \theta_j:=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j,(j=0,1) θj:=θjαm1i=1m(hθ(x(i))y(i))xj(i),(j=0,1)
theta(1) = theta(1) - alpha / m * sum(X * theta_s - y);       
theta(2) = theta(2) - alpha / m * sum((X * theta_s - y) .* X(:,2));  
theta_s=theta; 

迭代多次后便可得到理想的 θ \theta θ值。接下来的根据x预测y值,以及绘制三维图、等高线图题目中已给出,这里不再赘述。matlab中的画图函数surf和画等高线图函数contour可以自行百度。

二、多变量线性回归

问题背景:卖房子,已知一系列数据,根据房屋大小和卧室数量两个特征,预测房子价钱,数据在(ex1data2.txt)。

  1. featureNormalize.m:数据特征归一化,因为房子大小和卧室数量不在一个数量级,直接计算收敛速度慢,所以先采用0均值标准化,归一化公式如下,详细介绍见线性回归与特征归一化(feature scaling)
    z = x − μ σ z=\frac{x-\mu}{\sigma} z=σxμ
    均值方差根据matlab容易求得,代码如下
 mu = mean(X);       %  mean value 
 sigma = std(X);     %  standard deviation
 X_norm  = (X - repmat(mu,size(X,1),1)) ./  repmat(sigma,size(X,1),1);
  1. computeCostMulti.m:计算代价
    假设hypothesis函数为
    h θ = θ T x = θ 0 + θ 1 x 1 + θ 2 x 2 h_\theta=\theta^Tx=\theta_0+\theta_1 x_1+\theta_2 x_2 hθ=θTx=θ0+θ1x1+θ2x2
    一共m个数据,代价函数为
    J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 J(θ)=2m1i=1m(hθ(x(i))y(i))2
J = sum((X * theta - y).^2) / (2*m); 
  1. gradientDescentMulti.m:计算梯度
    J ( θ ) J(\theta) J(θ) θ j \theta_j θj求偏导得
    ∂ ∂ θ j J ( θ ) = 1 2 m [ 2 ( h θ ( x ( 1 ) ) − y ( 1 ) ) x j ( 1 ) + 2 ( h θ ( x ( 2 ) ) − y ( 2 ) ) x j ( 2 ) + . . . ] = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) \begin{aligned} \frac{\partial}{\partial{\theta_j} }J(\theta)=&\frac{1}{2m}[2(h_\theta(x^{(1)})-y^{(1)})x^{(1)}_j+2(h_\theta(x^{(2)})-y^{(2)})x^{(2)}_j+...]\\ =&\frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j \end{aligned} θjJ(θ)==2m1[2(hθ(x(1))y(1))xj(1)+2(hθ(x(2))y(2))xj(2)+...]m1i=1m(hθ(x(i))y(i))xj(i)
    所以有
    θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) , ( j = 0 , 1 ) \theta_j:=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j,(j=0,1) θj:=θjαm1i=1m(hθ(x(i))y(i))xj(i),(j=0,1)
    θ = [ θ 0 , θ 1 , θ 2 ] T \theta=[\theta_0,\theta_1,\theta_2]^T θ=[θ0,θ1,θ2]T X ∈ R m × 3 , Y ∈ R m X\in R^{m\times3},Y\in R^{m} XRm×3,YRm
    θ = θ − α 1 m X T ( X θ − Y ) \theta=\theta-\alpha\frac{1}{m} X^T(X\theta-Y) θ=θαm1XT(XθY)
theta = theta - alpha / m * X' * (X * theta - y); 
  1. 根据迭代n次后得到的 θ \theta θ,计算1650平方英尺、3个卧室的房子价钱
price = [1 (([1650 3]-mu) ./ sigma)] * theta ;

三、用正规方程(解析解)直接计算 θ \theta θ

根据 ∇ θ J ( θ ) = 0 \nabla_\theta J(\theta)=0 θJ(θ)=0求得解析解如下(具体过程见视频课程)
θ = ( X T X ) − 1 X T Y \theta=(X^T X)^{-1}X^T Y θ=(XTX)1XTY
代码为

theta = pinv( X' * X ) * X' * y;

不再需要使用归一化处理数据。

解析解和梯度下降都可以很好的进行预测,上述实验数据虽然最后得到的 θ \theta θ不同,但是预测结果一致。解析方法在数据量极大时存在时间效率问题。具体可见正规方程normal equation

  • 38
    点赞
  • 203
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值