吴恩达 机器学习课程第二周

Linear Regression:

线性回归课程中的例子是房价预测属于监督学习


预测函数表示通过x获取对房价的期望。
Cost Function:

计算期望值与实际值的方差。

使J尽可能取得最小值。

Gradient Descent:

梯度下降法通过该点出各方向的偏导获取下一步的方向,alpha决定下一步的大小。

function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters)

m = length(y); % number of training examples
J_history = zeros(num_iters, 1);

for iter = 1:num_iters
    theta = theta - alpha/m*X'*(X*theta - y);%
    % Save the cost J in every iteration    
    J_history(iter) = computeCost(X, y, theta);
end
end

注意:选取适合的alpha  

          theta 同时更新

新公式:


(对J求偏导后展开)

Feature Scaling

对输入数据进行标准化。提高梯度下降的效率。

Si可以为标准差或者最大值与最小值的差

function [X_norm, mu, sigma] = featureNormalize(X)
X_norm = X;
mu = zeros(1, size(X, 2));
sigma = zeros(1, size(X, 2));
mu(1,1)=mean(X(:,1));
mu(1,2)=mean(X(:,1));
sigma(1,1)=std(X(:,1));
sigma(1,2)=std(X(:,2));
X(:,1)=(X(:,1)-mu(1,1))/sigma(1,1)
X(:,2)=(X(:,2)-mu(1,2))/sigma(2,2)

end

Normal Equation:

正规方程

令J的导数等于0

XTX · θ = XTY

(XTX)-1(XTX) · θ = (XTX)-1XT

θ = (XTX)-1XTY




hθ(x)=θ0+θ1

x

hθ(x)=θ0+θ1

x

hθ ( x )
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值