最早人们创造神经网络时,是想通过代码模拟大脑的功能,虽然如今人工神经网络的发展已经与最初的设想发生了很大的不同,但是一些生物上的动机仍然存在。
神经网络
最初:尝试模仿人类大脑工作的算法。
发展历程:语音识别(SR)-------- 计算机视觉(CV) -------- 自然语言处理(NLP) 等等----
大脑中的神经元
这是大脑中的一个神经元,我们需要知道的就是左边一个神经元接受了一个输入inputs,然后通过神经元之后产生了一个outputs,这个outputs又成为了下一个神经元的inputs,然后一层一层传递下去,一般来说会有很多个神经元,这样的话神经元的长度就很长,所以就被叫做深度学习。当然最终的算法已经和大脑的工作方式产生了很大的区别,因此在真正编写深度学习算法的时候不需要过多关注这些生物学的东西。
用数学模型将这个玩意无限简化一下:
中间那么多圈圈就是那些个神经元,将你的输入通过这些圈圈,然后就得到了一个输出。
依靠这些非常简化的数学模型,我们就能制作出非常高级的深度学习模型。
为什么是现在?
先画一张图图:
图中横轴是数据量,纵轴是各个算法的表现效果
可以看出,
传统的机器学习算法在面对海量数据时的表现效果提升并不明显
而神经网络算法在面对大量数据时效果有了明显的提升
而对大量数据的运算则需要好的硬件条件(例如显卡,gpu),因此在现在的时间大量数据和硬件条件得到了满足,所以促成了深度学习算法的快速发展。