机器学习二

吴恩达机器学习视频

6.二分类问题,logistic回归算法,决策界限,代价函数,多分类问题

分类问题是预测结果是离散值的问题。二分类问题的数据集的结果只有两种0和1。logistic回归算法通过假设函数把二分类问题的预测结果控制在0和1之间。

logistic回归算法中的假设函数与假设函数的意义:

4f33a268bb3f4e2f9858562e479946e2.png

上图就是logistic算法,h(x)=g(θᵀx)。 这个θ是一个θi的向量。

5a2b3d61ecfe492c8504fa8171db316c.png

h(x)的含义:输入x后得到的y=1的概率, 是一个条件概率,给出x的情况下,概率的参数是θ,y=1的概率。

logistic回归算法的预测方法:80417a237ecd46daa9fa2f8d6a483402.png

如果假设函数h(x)≥0.5,也就是θᵀx≥0时,预测结果y=1。如果h(x)<0.5,也就是θᵀx<0时,预测结果y=0。(注:h(x)=0.5的情况可以自己选择归到哪一类)

决策界限:

cfcc380534a04eec9c0316c5e1f61b13.png

决策界限以及y=0的区域和y=1的区域是假设函数的一个属性,并不是训练集的属性。当给出了参数θ的值,就能确定决策界限。上图的例子中x1+x2=3就是决策界限,分开了y=0和y=1的区域。

ff8b938032a14acd8228d67ae127bfca.png

 上图是又一个决策界限的例子,上面两个例子中参数θ的值都是给出过的。

代价函数:解决拟合参数θ的值的问题。

如果把线性回归问题中的代价函数用在分类问题上,会导致下图

cff4e04ac2b64bd8a71c65bef7fa174c.png

 因为logistic回归和线性回归中的h(x)不同,直接把线性回归的代价函数搬过来用在logistic回归上,代价函数会是如上左图,是一个非凸函数,有很多局部最小值,这种情况再使用梯度函数来确定θ的话,并不能保证求得的θ使J(θ)达到全局最小值。所以,不能直接照搬。

logistic的代价函数:

单训练样本:4a98ed0848434367ad997215c16eade3.png e417e1fe6c12415bb5f08aee05b0974d.png

 由上,当y=1,h(x)=1,代价cost=0,当y=1,h(x)=0,代价cost趋向于∞,表示这种算法要为这种错误的预测付出很大的代价。

y=0时,同理。

延伸到多样本:8422967dbeb74bdb89dd1626d172f00f.png

 单样本的代价函数可直接写成最后一行蓝字的形式,多样本的代价函数J(θ)是上图第一行可写成下图的形式。

a1aa7e2ece1f480ca1e37f7147478e23.png

 用梯度下降法求θ的值:09a6b435fe0343c380f9f93c6f800b29.png

111910b476934ec4b696f50e32f333b5.pnglogistic回归问题的梯度下降法的形式和线性回归中的一样,但是h(x)不同。

 特征缩放也可用于logistic回归问题。

除了使用梯度下降法,还用一些高级优化的方法来求θ。它们往往比梯度下降法更快速地收敛,而且不需要我们自己选学习率α但,它们要比梯度下降法更复杂。

多分类问题:

这类问题可把它分为多个二分类问题来解决。下图是一些多分类问题的例子。517862c42b9a47a2a328c44e137d3907.png具体例子:8b788ad56a284adeb4c61f7167c55f31.png

 上图是一个三个类别的分类问题。针对三个类别,把这个问题分为右图三个二分类的问题,也就有三个分类器,蓝框中是三个分类器的假设函数及它的概率意义。

输入x,在三个分类器中运行x,选择三个分类器中h最大的分类器,针对该x预测的y就是这个hmax。

7.过度拟合与正则化(线性回归的正则化与logistic回归的正则化)

6aa0a3119c7f43a78e97825478d7c8ae.png

上图从左至右分别是线性回归的欠拟合,适当拟合和过度拟合,当有了过多的特征在假设函数中,每个训练集的点都在假设函数的线上,但会导致在训练集以外的情况,该假设函数很难泛化。5e3d30c32186418e90572d2bbb8a7ec3.png

 上图是logistic回归的欠拟合,适当拟合与过拟合。

出现过拟合的解决选择:

1.减少一些特征:①人工选择保留哪些特征,删去哪些特征;②一些自动选择算法来减少特征;

2.正则化:①保留所有特征,但减小参数θ的值;②当有很多特征时,也能确保适当拟合,每个特征都能对预测y产生一点影响。

对于一些问题,每个特征或多或少都是有用的,所以就需要正则化来帮助适当拟合。

正则化思想:

d90ce72268244b698a4200bc6e664bd0.png

如上图,一个线性回归的问题, 如果把代价函数中加入蓝色字的两项,θ²的系数设为很大的数,使用代价函数计算θ时,要使代价函数的值尽可能的小,所以θ的值会尽可能地小。

对线性回归的梯度下降法的正则化:

5006f14d81244a7f90b22b552a74b645.png 对线性回归的正则化,代价函数如上图。

注意,一般情况下只对θ从1到n正则化,对θ0不正则化。ps:对θ0正则化可以,但一般情况下不用。

线性回归正则化后的梯度下降法:b5bcf735dc2c412aac332b60d726f1ab.png

 注:θ0单独写出来。

倒数第二行经过整理可变成最后一行的式子,由最后一行可看出来,θj比正则化之前要小。

对线性回归的正规方程法的正则化:09e80ef42c5f4486825da40cc4455ff2.png

 注:n是特征数。

对logistic回归的正则化:

650b1d15bbf54da3817116e137639a81.png

logistic回归正则化后的梯度下降法: bead5a12c6de4d77be9d2840d7742ada.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值