神经网络入门基础知识 neural networks basics
冰河期:图领奖得主,MIT计算机科学研究的奠基人Marvin MinsKy(马文 闵斯基)(2016年1月24日去世)在1969年出版《感知机》一书,认为单层神经网络无法解决非线性问题,而多层神经网络的训练算法尚看不到希望。这个论断直接导致神经网络研究进入10多年的冰河期。
第二个高潮期:BP算法的迅速走红,掀起了神经网络的第二次高潮。
冰河期:20世纪90年代中期,随着统计学习理论和支持向量机(support vector machine,SVM)的兴起,神经网络再次进入低估,NIPS会议多年不接受以神经网络为主题的论文。
第三个高潮期:2010年前后,随着计算能力的迅速提升和大数据的出现,神经网络研究在“深度学习”的名义下再次换发新春。
如果你觉得这篇文章看起来稍微还有些吃力,或者想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。
神经网络是一种非线性学习算法,神经网络中最基本的成分是神经元(neuron),下面给出神经元的基本模型:
其中 为输入单元, 称为偏置单元(bias unit), 称为连接权重。为输出函数,其中,其实就是前面在logistic回归里提过的sigmoid函数(ps:目前神经网络的输出层通常使用softmax函数)。
还记得逻辑回归的sigmoid函数吗,在这里称作“激励函数”(motivation function),其图像为(图片来自wiki):
关于这个函数就不多介绍了,我在逻辑回归里介绍过了。
介绍完神经元模型后,下面来介绍神经网络基本模型:
在上面的图中我并没有画出偏置单元,在实际应用中有时候需要加上。其中第一层(layer1)称为输入层,layer2称为隐藏层(神经网络可能不止一个隐藏层,只是本例中只有一个,其实只要位于隐输入层和输出层之间的都称为隐藏层),layer3称为输出层。
称为第j层的第i个单元的激励,表示从第j层到第j+1层的权重。因此在本例中:
因此这里 。可以看出 是一个3*4的矩阵,即:
如果一个神经网络在第j层有个单元,在第j+1层有个单元,那么为的矩阵。
关于神经网络的最基本的知识就介绍到,下面举一些例子,帮助大家更好的理解神经网络。
Example 1:实现“与”功能
如上图所示,我们容易求得 。因此我们可以画出的真值表,看看它是怎样实现“与”功能的。
因此,从上图可以看出是如何实现“与”功能的。。。
Example 2:
实现“或”功能:
注:写博客不容易,甚是花费时间和精力,尤其画图很不容易。每个原创博客的孩子上辈子都是天使,请大家尊重原创,转载或者引用请注明原文作者和链接,谢谢!