Stanford机器学习---第六讲. 神经网络的表示 Neural Networks representation

==============Nonlinear hypothesis==============

1.当特征多的时候(100),为了非线性的分割,要引入2次项,甚至3此项,

造成特征膨胀。


2.当特征“爆炸”时,回归计算复杂度太大,如汽车分类小例:




=================Neurons and the Brain====================

1.大脑神经图,注意输入、输出


2.单个神经元



3.神经网络,隐含层(不涉及输入X,输出Y)


4.神经网络各层的计算


================Model Representation==================

1.向前传输的向量计算表示


2.神经网络的特点:但看后两层,和Logistic回归没区别。但正因为

有前两层,相当于对输入特征做了一次Logistic回归拟合。然后再次

到最后一层Logistic回归,好处是不用写复杂的多项式特征,减少计算量。


3.多层的隐含层


4.简单小例




5.小例子组合


6.三层特征,逐次提取识别


==================Multiclass Classification===================

1.分4类,4个输出层













  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值