最终还是没有憋住,写下了这篇博文,最近真的是感慨很多啊,真的很想找个人说说。还有那么多的东西要看要学。
最近一直在搞神经网络方面的东西,看了MLP的讲解,但都是讲解结构,我就是想知道MLP到底是干啥的,有什么用,一直没找到,碰巧在一篇博客中看到便在此记录一下自己的理解。这里不讲解它的结构和历史,想了解的可以看这里和这里,本篇只是为了从高维的角度给出一个整体的认识。
作用:它就是一个传统的神经网络,就是为了解决单层感知机无法解决的非线性问题(单层感知机只能对线性数据进行分类)。做图片处理的大都是用caffe,它就相当于caffe里面的p2p层。
多层感知机最初是为了做分类的,但是它也可以处理回归问题,只要在最后将softmax等分类器改成sigmoid回归就行。它的训练方式也是“BP反向传导”。
很好的一个图片:
但是它的隐藏层之间的连接方式是“全连接”的,所以造成(1)训练的参数过多(2)由于(1)造成它的层数不可能过多,限制了它的能力也有限,不能解决比较复杂的问题。于是,局部连接的卷积神经网络便出来了,很好的解决了这些问题。