temp

3 篇文章 0 订阅
2 篇文章 0 订阅
本文介绍了卷积神经网络(CNN)的主要结构,包括数据输入层、卷积层、ReLU层、池化层、全连接层及可能包含的BatchNormalization层。通过TensorFlow实现AlexNet分类任务,并使用Keras实现VGG分类任务。文章对比了ReLU与tanh等激活函数在训练速度上的差异。
摘要由CSDN通过智能技术生成

以CNN为例

  • CNN 结构
  • tensorflow代码实现alexnet分类
  • keras代码vgg分类

主要结构

  • 数据输入层/ Input layer
  • 卷积计算层/ CONV layer
  • ReLU激励层 / ReLU layer
  • 池化层 / Pooling layer
  • 全连接层 / FC layer
  • Batch Normalization层(可能有)

relu

Cifar-10的训练走向

(Cifar-10的训练走向)

将神经元的输出f,作为其输入x的函数,对其建模的标准方法是用 f(x)=tanh(x) 或者 f(x)=(1+exp(x))1
梯度下降的训练时间而言,这些饱和非线性函数比不饱和非线性函数 f(x)=max(0,x) 要慢得多。
训练带ReLUs的深度卷积神经网络比带tanh单元的同等网络要快好几倍。如图所示.

参考

  1. 人脸识别(face recognition)
    http://www.92to.com/bangong/2016/11-02/12212787.html
  2. 人脸识别DNN技术浅析:https://sanwen8.cn/p/18bG5mq.html
  3. rcnn:http://blog.csdn.net/column/details/ym-alanyannick.html
  4. 阿尔法狗:http://news.mydrivers.com/1/474/474324.htm
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值