Coursera-MachineLearning-LogisticRegression

Coursera机器学习-吴恩达
Octave 代码
背景:使用逻辑回归预测学生是否会被大学录取。

% 1.读取训练集,并打印正负样本:

data = load('ex2data1.txt');
X = data(:, [1, 2]); 
y = data(:, 3);

plotData(X, y);

% 函数plotData:
function plotData(X, y)

figure; hold on;
% 打印正样本和负样本
positive = find(y == 1);
negative = find(y == 0);
plot(X(positive, 1), X(positive, 2), 'k+', 'LineWidth', 2, 'MarkerSize', 7);
plot(X(negative, 1), X(negative, 2), 'ko', 'MarkerFaceColor', 'y', 'MarkerSize', 7);

hold off;
end

hold on;
% Labels and Legend
xlabel('Exam 1 score')
ylabel('Exam 2 score')

legend('Admitted', 'Not admitted')
hold off;

在这里插入图片描述

% 2.计算代价函数J 和下降梯度

[m, n] = size(X);
X = [ones(m, 1) X];
initial_theta = zeros(n + 1, 1);

% 计算代价函数,使用初始化全为0的计算代价
[cost, grad] = costFunction(initial_theta, X, y);

% 函数costFunction:
function [J, grad] = costFunction(theta, X, y)

m = length(y); 
J = 0;
grad = zeros(size(theta));

% 计算代价和梯度grad,公式如下图:
J = -1 / m *(sum(y .* log(sigmoid(X * theta)) + (1 - y) .* log(1 - sigmoid(X * theta))));
grad =  1 / m * X' * (sigmoid(X * theta) - y);

end

fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);

% 再次计算代价函数,使用测试的theta:
test_theta = [-24; 0.2; 0.2];
[cost, grad] = costFunction(test_theta, X, y);
fprintf('\nCost at test theta: %f\n', cost);
fprintf(' %f \n', grad);

2.1 假设函数由来:
	逻辑回归是分类问题,若使用线性回归的假设函数,h(x)会不是确定的范围的值。
	如下图,h(x)>0.5 是 yes, h(x)<0.5 是 no,这里分界是0.5,但到其他问题分界线就会变

在这里插入图片描述

2.1.1 因此我们需要将结果缩到 [0,1] 中,这样方便判断,
	  分界线永远为0.5,函数值大于0.5就为yes,小于0.5为no
	  因此使用 sigmoid函数,并把之前线性回归的假设函数theta * x
	  带入:
	  这样 theta * x > 0,则 g(z) > 0.5,则 判断为1
	  	   theta * x < 0,则 g(z) < 0.5,则 判断为0
	  
	  因此 g(z) 即为逻辑回归的假设函数

在这里插入图片描述
在这里插入图片描述

2.2 代价函数J 由来
	若将上述假设函数 g(z) 带入线性回归的代价函数,得到的不是凸函数,
	即有很多局部最小值,不利于梯度下降:

在这里插入图片描述

2.2.1 因此不能用线性回归的代价函数了,用个新的:
	  这样是凸函数,然后合并一下:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2.3 上述就是逻辑回归的代价函数J,还可以优化一下,将各项的和用矩阵的方式
	  实现:

在这里插入图片描述

2.3 梯度下降的由来:
首先由梯度下降的一般公式,然后将代价函数带入,并对 theta 求偏导数,
再乘步长 a :

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

% 3. 使用高级优化(Advanced Optimization)来更新 theta

% 'GradObj', -'on':设置梯度目标参数为on打开状态
% 'MaxIter', -100:设置最大迭代次数400
options = optimset('GradObj', 'on', 'MaxIter', 400);

% 运行 fminunc 就可以得到最佳 theta,并打印
% @是函数指针
[theta, cost] = fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);

fprintf('Cost at theta found by fminunc: %f\n', cost);
fprintf(' %f \n', theta);

plotDecisionBoundary(theta, X, y);
hold on;
xlabel('Exam 1 score')
ylabel('Exam 2 score')
legend('Admitted', 'Not admitted')
hold off;

% 函数plotDecisionBoundary:
function plotDecisionBoundary(theta, X, y)

% 先打印训练集数据
plotData(X(:,2:3), y);
hold on

%这里不太懂怎么打印
% else后是打印便捷,先随机生成 -1到1.5 50个数字,
% 然后用mapFeatures生成 X1, X2, X1.^2, X2.^2, X1*X2, X1*X2.^2, etc..
% 足够特征后打印
if size(X, 2) <= 3
    plot_x = [min(X(:,2))-2,  max(X(:,2))+2];
    plot_y = (-1./theta(3)).*(theta(2).*plot_x + theta(1));
    plot(plot_x, plot_y)
    legend('Admitted', 'Not admitted', 'Decision Boundary')
    axis([30, 100, 30, 100])
else
    u = linspace(-1, 1.5, 50);
    v = linspace(-1, 1.5, 50);
    z = zeros(length(u), length(v));

    for i = 1:length(u)
        for j = 1:length(v)
            z(i,j) = mapFeature(u(i), v(j))*theta;
        end
    end
    
    z = z'; 
    contour(u, v, z, [0, 0], 'LineWidth', 2)
end
hold off
end

在这里插入图片描述

% 4.预测一波,并判断准确性

% 假设函数:hθ(x) = g(θ'x) = sgmoid(x * theta)
prob = sigmoid([1 45 85] * theta);
fprintf(['For a student with scores 45 and 85, we predict an admission ' ...
         'probability of %f\n'], prob);
fprintf('Expected value: 0.775 +/- 0.002\n\n');

% 基于训练集计算准确性
p = predict(theta, X);
fprintf('Train Accuracy: %f\n', mean(double(p == y)) * 100);

% 函数:predict:
function p = predict(theta, X)
m = size(X, 1); 
p = zeros(m, 1);
temp = sigmoid(X * theta);
p = temp > 0.5;
end
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值