在上一节课的最后,我们发现logistic regression的局限是不能处理非线性数据,因此提出了特征转换。而特征转换往往不是可以一眼看出来的,所以我们先通过两个logistic regression来提取特征,再把提取的特征作为最终分类的输入。如果把每个logisitc regression称为神经元(neure),那么把很多个神经元连起来就构成了神经网络(Neral Network)!
当然,这只是深度学习简单的引入,这节课来看看最简单的神经网络结构——全连接神经网络(Full connected feedforward network,又称前馈神经网络 ),和神经网络学习的一般步骤。
神经网络的起起落落起起起......值得注意的是GPU运算大大提高了深度学习的速度,同时近几年深度学习在图像识别和语音识别,NLP等领域大放异彩,吸引了很多研究者。
深度学习就像把大象装进冰箱一样简单:
step1: define a set of function
Neural Network
神经元之间不同的连接产生不同的网络结构,神经网络的参数是所有“”neurons”的weigts和biases