coursera-斯坦福-机器学习-吴恩达-第4周笔记-神经网络
文章目录
1 提出神经网络的动机
前面我们学习了,线性回归、逻辑回归,他们可以很好的解决一些预测问题。但是面对一些多特征的问题,比如以下的情况,他们并不能很好的画出分类边界线。
[外链图片转存失败(img-ERGd8XMD-1566960835819)(http://oqy7bjehk.bkt.clouddn.com/17-11-29/51984824.jpg)]
这种时候需要用到多项式回归(非线性的),这种函数画出的曲线可以有任意角度。但是这种函数会因为特征量的增多导致二次项数的剧增。 比如在图像识别中,一个50×50像素的图片,拥有的特征量为2500,那么它的二次项数为2500×2500/2,大约为3百万个。
在这种情况下,神经网络在1970左右被提出。
2 神经网络算法
2.1 神经元
神经网络是有一个个的神经元组成的网络。那么什么是“神经元”?
[外链图片转存失败(img-XlQfgPpY-1566960835820)(http://oqy7bjehk.bkt.clouddn.com/17-11-29/2034250.jpg)]
如图,这是一个最简单的神经元,模型的输入是x1,x2,x3通过参数(权重)θ1,θ2…,并使用逻辑函数激活(压缩),得到输出结果。
2.2 神经网络
下图为一个三层神经网络模型。第一层为输入层,第二层为隐藏层,第三层为输出层。 每条边上有一个权值θ。
a i ( j ) a^{(j)}_i ai(j):第j层单元i的“激励”
θ ( j ) \theta^{(j)} θ(j):第j层到第j+1层单元的权值矩阵。
若第j层单元数为 s j s_j sj,第j+1层单元数为 s j + 1 s_{j+1} sj+1,则 θ