- 博客(6)
- 资源 (10)
- 收藏
- 关注
转载 几个经典卷积神经网络技术点总结
原文地址:CNN浅析和历年ImageNet冠军模型解析 卷积神经网络原理浅析 卷积神经网络(Convolutional Neural Network,CNN)最初是为解决图像识别等问题设计的,当然其现在的应用不仅限于图像和视频,也可用于时间序列信号,比如音频信号、文本数据等。在早期的图像识别研究中,最大的挑战是如何组织特征,因为图像数据不像其他类型的数据那样可以通过人工理解来提取...
2018-08-30 18:38:19 18155
原创 深度学习实战(六) 多机多卡分布式训练cifar10完整实现
准备工作:数据集下载地址:http://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz 实现部分(附详细注释):首先获取用于训练的小批量数据,由于获取过程中需要对图像进行处理,避免阻塞训练进程,我们开启16个线程来从队列获取批量图像。from __future__ import absolute_importfrom __...
2018-08-29 21:43:36 3770 4
原创 深度学习实战(五) 基于MTCNN和Facenet的视频流人脸识别实战
前言:本文开发的是一个完整的视频流人脸识别系统,主要流程如下:首先,通过openCV抓取摄像头的视频流第二,通过MTCNN对每帧图片进行人脸检测和对齐,当然考虑到效率我们可以每n个间隔帧进行一次检测第三,通过facenet预训练模型对第二步得到的人脸进行512维的特征值提取第四,收集目标数据集来训练自己的分类模型第五,将第三部得到的512维的特征值作为第四部的输入,然后输出...
2018-08-18 03:24:48 11198 17
原创 神经网络中激活函数的意义和需要满足的条件
(1)非线性:即导数不是常数。这个条件是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。下面看一下激活函数使用线性函数时会发生什么由上可见,任意多个线性函数的组合还是线性函数,因此只要隐藏层的输出是线性的,无论多少层,都是和一个隐藏层是一回事,只有在线性回归问题中的输出层才会用到线性激励函数,但是实际上对于回归任务,你完全可以不使用激活函数。(2)几乎处...
2018-08-08 00:14:24 10079
原创 梯度消失和梯度爆炸原因及其解决方案
当我们需要解决一个非常复杂的问题,例如在高分辨率图像中检测数百种类型的对象,我们可能需要训练一个非常深的DNN,可能需要几十层或者上百层,每层包含数百个神经元,通过成千上万个连接进行连接,我们会遇到以下问题:首先,梯度消失或梯度爆炸其次,训练缓慢第三,训练参数大于训练集的风险梯度消失的原因:生物神经元似乎是用 Sigmoid(S 型)激活函数活动的,因此研究人员在很长一段时间内...
2018-08-07 19:22:22 79944 11
原创 tf.nn.dynamic_rnn返回值详解
函数原型tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=N...
2018-08-01 17:31:06 24466 12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人