深度学习基础(一)起源

本文介绍了深度学习(DP)的发展历程,从感知机、神经网络(NN)到深度学习的兴起。内容包括多层感知机解决非线性问题,以及DP的基础知识,如卷积、填充、池化、全连接层和dropout技术。同时,讨论了为解决梯度消失问题引入的ReLU函数,并简要提到了VGG16模型中的关键组件。
摘要由CSDN通过智能技术生成

目录

 

一、DP的前世

  1.perceptron

   2.NN

   3.DP

二、DP的基础知识

1.convolution

2.padding

3.pooling

4.Flatten

5.fully connected

6.dropout


一、DP的前世

深度学习发展至今经历颇为曲折,上世纪起源,火热起来也是20世纪初的时候,具体时间如下图所示:

                       

  1.perceptron

       深度学习(DP)的基础来源于19世纪50年代,起初是叫perceptron”(翻译为感知机/感知器等),包含有输入层、输出层和一个隐藏层。输入的特征向量通过隐藏层变换到达输出层,由输出层得到分类结果。但早期的单层感知机存在一个严重的问题——它对稍微复杂一些的函数都无能为力(如异或操作)。

 

   2.NN

      19世纪80年代左右为实现复杂函数功能(如异或、非线性可分等问题),提出“multi-layer perceptron”(多层感知机)/neural network(神经网络)来解决相应问题。主要为加入了隐层概念、非线性激活函数(sigmoid/tanh等)、back propagation(反向传播算法)和Optimizer(优化算法,梯度下降、mini-batch等)。

       此时跨入NN时代,但由于神经网络的层数和其实现的功能挂钩:即随着神经网络层数的加深,Optimizer越来越容易陷入局部最优解和梯度消失。(具体来说,我们常常使用sigmoid作为神经元的输入输出函数。对于幅度为1的信号,在BP反向传播梯度时࿰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值