- 博客(7)
- 资源 (1)
- 收藏
- 关注
原创 MobileNets
使用depth-wise separable convolutions来建立一个light weight deep nn。引入了两个简单的全局变量来平衡latency和accuracy,这些超参数使建模者能够根据实际问题的限制来选择合适的模型尺寸。1、Introduction 略2、Prior Work 为了实现模型设计中small和efficient的目标,大部分研究专注于
2017-09-20 15:38:52 220
原创 tensorflow学习(二)
关于scope的应用: tf.get_variable(, , )用来获取或创建一个变量,而不是直接调用tf.Variable. 一个初始化就是一个方法,创建其形状并为这个形状提供一个张量。初始化方法包括: tf.constant_initializer(value) 常值初始化 tf.random_uniform_initializer(a,
2017-09-14 14:10:31 174
原创 【tensorflow学习】(一)
Tensor: tensorflow中tensor数据结构代表所有的数据,在计算图中承载数据在操作间传递。tensor是n-dim的数组或列表,一个tensor包含一个静态类型rank和一个shape。 Variables:维护图执行过程中的状态信息。通常会将一个统计模型中的参数表示为一组变量。 Fetch:取回操作的输出内容 Feed: 可以
2017-09-06 15:03:23 235
原创 S3FD:Single Shot Scale-invariant Face Detector
1、主要贡献: (1) proposing a scale-equitable face detection framework to handle different scales of faces well. (2) improving the recall rate of small faces by a scale compensation anchor mat
2017-09-06 10:21:43 808 1
转载 Convolutional Neural Networks at Constrained Time Cost
本文是MSRA的何恺明在14年写的论文,通过一系列的替换实验,探讨了在限定复杂度和时间上,如何设计卷积网络结构,使得网络的性能最好。本文提出的CNN结构,在单个GPU上训练3到4天,在简单的10-view测试下获得了top-5 11.8%的准确率;做到了不仅快而且准确。摘要:本文主要结论,1在提升准确度上深度比宽度和filter尺寸更重要;2,尽管深度很重要,如果深度随意增加分类结果会停滞
2016-05-29 14:37:34 503
原创 DeepLearning论文笔记(二):Understanding Deep Architectures using a Recursive Convolutional Network
> 卷积神经网络模型在图像分类上的表现受到很多内部结构因素的影响,比如:layer的数量、特征图维数、滤波器的尺寸、总参数数量、pooling层的尺寸和放置位置等。本文提出了一种循环卷积网络,用以独立分析层数、特征数以及参数数量对于分类结果的影响。一、循环卷积网络上图为文中提出的循环卷积网络结构。只有第一个卷积层具有独立参数并伴随Max pooling处理,其他所有L个卷积层
2016-05-15 11:07:49 706
原创 DeepLearning论文笔记(一):What is the Best Muti-Stage Architecture for object Recognition
> 一篇比较老的文章,主要描述了目标识别常用模型的layer组成,通过在Caltech-101、NORB、MNIST等数据集上的测试实验体现了non-linearities、Random Filter / hard-wired Filter、监督 / 非监督训练方法、单层特征提取结构 / 两层特征提取结构对于识别精度的影响。具体内容如下: 首先,作者提出了三个问题:
2016-04-24 13:51:11 701
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人