==============Nonlinear hypothesis==============
1.当特征多的时候(100),为了非线性的分割,要引入2次项,甚至3此项,
造成特征膨胀。
2.当特征“爆炸”时,回归计算复杂度太大,如汽车分类小例:
=================Neurons and the Brain====================
1.大脑神经图,注意输入、输出
2.单个神经元
3.神经网络,隐含层(不涉及输入X,输出Y)
4.神经网络各层的计算
================Model Representation==================
1.向前传输的向量计算表示
2.神经网络的特点:但看后两层,和Logistic回归没区别。但正因为
有前两层,相当于对输入特征做了一次Logistic回归拟合。然后再次
到最后一层Logistic回归,好处是不用写复杂的多项式特征,减少计算量。
3.多层的隐含层
4.简单小例
5.小例子组合
6.三层特征,逐次提取识别
==================Multiclass Classification===================
1.分4类,4个输出层