非线性假设

       之前我们学习的logistic回归的基本知识,现在我们来讨论你一下它在特征较多的情况下的反应:

我们用之前比较熟悉的房屋的问题来进行讨论,现在我们根据下图的训练集来将房屋能否在未来今年卖出去分类。

我们如图所示,画出了分界线。

    在这里我们假设影响房屋卖出与否的因数有n=100个,x1到x100,这里简单起见,假设函数我们只考虑平方项。

但是由于特征为n=100,假设函数有大约5000项之和。如果我们还考虑3次项,你会发现,假设函数是大约n的3次方个项之和。

这个结果太复杂了。然而在机器学习的一些应用中,例如图像识别,你会发现它们要考虑的特征的个数会比100更大。

      下面我们再看一个计算机视觉中一个图像识别的例子:

     看到上图的第一眼,我们大脑里面就给出了反应,这个是一辆汽车。但是你会惊奇,这个我们觉得一目了然的结果,对于学习了算法的计算机而言却是不知道是什么。

  我们以一个点放大来说明计算机是如何识别这张图的,上图中的一个点放大后,在计算机中显示的是一个矩阵,里面是各个点的像素大小。计算机就是根据这些像素的值,来分析出这个图像是一个门把手。

    在一个汽车识别的系统中,我们首先给出许多汽车的图像若左边所示,然后再给出许多的不是汽车的图像如右边所示。然后我们给出一张新的图像,计算机机会根据之前给出的图片的数据,来将这张新的图片分类,判断是否为汽车。

 

    在汽车识别的例子中,我们只考虑两个点的像素,我们将许多的图片的结果标记在一个坐标系中,正为汽车,负为非汽车。我们给出了大量的训练集。但是你会发现,即使我们只考虑50x50px的小图片,我们要分析的特征x也有2500个,如果是彩色图片将会是7500个,这个结果对我们之前所使用的logistic回归算法来说过于复杂。所以这种复杂的问题(特征过多),我们要使用之后学习的神经网络算法。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值