学习笔记-4-ANN-1-Preliminaries

细节内容请关注微信公众号:运筹优化与数据科学

ID: pomelo_tree_opt


Outline

1. ANN与SVM

2. ANN的数学基础

3. ANN history

4. Deep neural network

------------------------------

1. ANN与SVM的区别

  • SVM, SVR中有很多数学推导的过程,

    例如primal model, dual model, dual-to-primal conversion, optimality condition等。

  • ANN或NN中也有很多数学推导,但是这里大部分的数学知识都go beyond大部分人的数学功力了,所以学NN一般不是去推导什么内容,只是知道其中的function是怎么运作的,掌握应用的技巧,会动手实现是关键。

====================

2. ANN的数学基础

ANN的数据基础是一个叫universal approximation的东西

这个universal approximation表现形式上,就是简单的线性的东西,经过非线性的operation,再combinOute起来,就得到了g(x), 用g(x)来近似f(x). 

思想上就是,我们不知道f(x)在做什么,可是我可以借由一连串我知道的东西把你表现出来,而且表现得很好,这就是ARR中approximation的思想。

------------------------------

从NN来看,就是f(x)很难,我们都不知道f(x)是什么形式,可是NN却可以经由一连串的连接来近似,而且能够保证效果够好。

Principle: complexity can be embedded in layered simplicity.

Layered simplicity can generate desired complexity.

The intelligence(computational power) of a neural network comes from properly layered neurons.

思想就是复杂的东西,往往嵌套在一层一层的简单东西中。Layered simplicity就是一层一层的简单的东西。Simplicity的东西经过一层一层的组合就能产生complexity.

不管f(x)有多难,我们都可以借由一层一层最简单的线性的东西,经过activation function变成非线性的;这样一层一层去做,就可以做出来一个g(x),与f(x)相差不大。

另外,NN的功能,computational power或者说intelligence就来自这一层一层的简单的东西堆出来的。这个一层一层的想法很重要。

====================

3. ANN history

  • 1873年Alexander Bain出的书《Mind and Body》

  • 1890年William James出的书《The principle of Psychology》

两个人一起uncovered preliminary theoretical bases of “thoughts and body activities are from interactions of neurons (via electric flows) in the brain”. 尤其是William这个人提出了微电流electric flows的观点。

-------------------------------------

  • 从1890到1898年,1898年,C. S. Sherrington真的验证了脑神经元的交互是通过微电流实现的。

  • 再50年后,1943年Warren McCulloch and Walter Pitts设计了第一个“threshold logic” computation model,就是那个XOR的东西,逻辑运算用的,这是个pioneering的work,用数学建立了一个逻辑网络,用来做判断。

  • 再到1948年,Alan Turing提出把neuron串起来,当作一个machine来用,就是NN的concept,自此很多人开始研究这个东西。

-------------------------------------

  • 1958年,F. Rosenblatt创造了第一个perceptron,感知器,也就是一个artificial neuron. 用数学的模式制造了一个神经元,所以Rosenblatt也被称为“father of neural network”, “father of deep learning”.

  • 1974年,Paul Werbos在他的PhD thesis中第一次提出了“backpropagation”的概念,前面都是在创造人工神经元,这里是提出了学习机制,perceptron的性能得到加强,真正起到学习的作用。从“过去”中学习,吸取教训,refine work. 他的PhD thesis叫做“Beyond regression”,回归之后,怎么加强学习。自此,neural network逐渐成型。

-------------------------------------

  • 1982年,J. J. Hopfield提出了一个经典的ANN结构,” recurrent Hopfield network”. 

  • 1986年,D. E. Rumelhart and J. McClelland提出了full exposition on the use of connectionism in computers to simulate neural processes. 这两个人是专门研究connectionism的,也就是连接机制,交互作用。

  • 2006年,G. E. Hinto, S. Osindero, and Y. The proposed a fast learning algorithm for deep belief nets. 这个是在大数据背景下,提出了新的算法,快速学习的算法。

-------------------------------------

总体上来讲,1990s之前,NN就发展的很好了。

2000年以后,有了大数据,computational element之后,NN越来越powerful, 也出现了deep learning的东西。

====================

4. Deep neural network

Deep learning for computer vision, image procession, pattern recognition, approximate reasoning, etc.

像下面这张图,从Pixels到line segments, 再到distinct features的转变,就是卷积convolution operation, 能够抓住feature, 例如两只眼,一个鼻子什么的。

我们人类认知是从feature开始的,很快认识到是只狗。而电脑需要从像素到feature, convolution operation就是专门做这个的。

深度学习,深度神经网络,像CNN,就是在多层感知机的基础上前面又加了很多卷积层,汇聚层等,这就是所谓的深度网络 deep network。与之相对的是shallow network,就是网络的层数比较少.

在计算能力不强的时候,人们希望神经网络层数越少越好,每一层用的神经元越少越好,总的来说就是越精简越好,容易计算。

后来计算能力变强了,人们开始不纠结网络层数的事情,反正电脑运算能力够用,而且网络层数越多,直观上会更容易表现出来更复杂的东西。只是一个朴素的认识,实际上有证明,很简单的神经网络结构就能基本上近似所有的函数形式。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值