机器学习第四周(一)

1、Non-linear hypotheses,引入课程中的一幅图片
非线性分类
对于图中的数据,只有俩个feature,分类效果尚能令人满意,但当feature数量不断增大时,假设函数中二次项数会剧增,比如feature为100时,此时二次项数为(100*100)/2=5000个
作者后面又举了一个识别汽车的例子,在一幅50*50像素的图片中,特征量能达到2500个,那么二次项就有(2500*2500)/2约3million个
所以对这些拥有大的feature数据,需要引入神经网络来表示假设函数。


2、Model Represent,从一个简单的神经元引入
一个神经元
如图,有三个feature,将feature作为输入,同样加入x0并置1,这里我们称x0为偏置项(bias unit)。输入经过一个神经元,最后得到我们的假设函数,假设函数形式任然采用Sigmoid函数,在这里称Sigmoid函数为激活函数(activation function),也称theta为权值(weights)
同样,当扩展到多个神经元时如下:
多个神经元
这里我们称layer1为输入层(input layer)layer3为输出层(output layer)介于layer1和layer3之间的为隐藏层(hidden layers)这里为layer2.同时,我们称隐藏层的结点这里写图片描述为激活结点(activation units)a0项也为1(也称做偏置项(bias unit)).
以一个具体神经网络为例解释计算过程:
这里写图片描述

激活结点项称第j层第i个结点
Theta项称为第j层到第j+1层权值矩阵。并且有Theta求值S(j)表示第j层的结点数,S(j+1)表示第j+1层结点数


3、vectorized implementation(向量化表示)
以图中每个激活结点和假设函数的的具体计算过程为例。
我们引入变量Z并给出向量化实现:
以第二层为例,k表示结点序号,向量Z为:
向量Z
因为这里写图片描述所以我们得到Z的公式(其中j大于等于1)Z通用公式
所以激活结点的向量化表示如下:
向量化实现
进一步化简
进一步化简


同时,也得到假设函数的向量化表示如下:
假设函数向量化表示

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值