机器学习基础(一)线性回归

线性回归模型是最简单的监督式学习模型:

\begin{displaymath}h_{\theta}(x) = \theta^Tx = \sum_{i=0}^n \theta_i x_i, \nonumber\end{displaymath}

所谓的监督式学习模型就是需要通过已有的数据训练出一个最优的模型,能够表示这些已有的模型并能够预测新的数据。怎么判断模型是不是最优的呢?这就需要引入代价函数(Cost Function):

\begin{displaymath}J(\theta)=\frac{1}{2m}\sum_{i=1}^{m}\left(h_{\theta}(x^{(i)})-y^{(i)}\right)^{2} \nonumber\end{displaymath}

怎么得到最优的模型呢?这就需要求解代价函数的最小值,也就需要引入梯度下降法。梯度下降法就是通过迭代,每一次都比之前已次更加接近代价函数的最小值,最后在误差允许的范围内终止迭代。

\begin{displaymath}\theta_j := \theta_j - \alpha \frac{1}{m} \sum_{i=1}^m (h_{\......{(i)}) x_j^{(i)} \;\;\;\;\;\mbox{(for all $j$)} \nonumber\par\end{displaymath}

我们求出了参数,带入

\begin{displaymath}h_{\theta}(x) = \theta^Tx = \sum_{i=0}^n \theta_i x_i, \nonumber\end{displaymath}

便得到了最简单的线性回归模型


参考练习:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=exercises/ex2/ex2.html

function Linear_Regression()

clear all; close all;clc
x=load('ex2x.dat')
y=load('ex2y.dat')

m=length(y);

%plot the training data
figure;
plot(x,y,'o');
ylabel('Height in meters');
xlabel('Age in years')

%gradient descent
x=[ones(m,1) x];
theta = zeros(size(x(1,:)))';
MAX_ITER = 1500;
alpha=0.07;

for iter=1:MAX_ITER
    grad = (1/m).*x'*((x*theta)-y);
    theta = theta - alpha .*grad;
end
theta

hold on;
plot(x(:,2),x*theta,'-')
legend('Training data','Linear regression')
hold off

predict1=[1,3.5]*theta
predict2=[1,7]*theta

theta0_vals=linspace(-3,3,100);
theta1_vals=linspace(-1,1,100);

J_vals =zeros(length(theta0_vals),length(theta1_vals));

for i=1:length(theta0_vals)
    for j=1:length(theta1_vals)
        t=[theta0_vals(i);theta1_vals(j)];
        J_vals(i,j) = (0.5/m).*(x*t-y)'*(x*t-y);
    end
end
J_vals=  J_vals';
figure;
surf(theta0_vals,theta1_vals,J_vals)
xlabel('\theta_0'); ylabel('\theta_1');

figure
contour(theta0_vals,theta1_vals,J_vals,logspace(-2,2,15))
xlabel('\theta_0'); ylabel('\theta_1');
end


\begin{displaymath}h_{\theta}(x) = \theta^Tx = \sum_{i=0}^n \theta_i x_i, \nonumber\end{displaymath}


\begin{displaymath}J(\theta)=\frac{1}{2m}\sum_{i=1}^{m}\left(h_{\theta}(x^{(i)})-y^{(i)}\right)^{2} \nonumber\end{displaymath}



Cantor图


参考资料http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=MachineLearning


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值