自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Jayxbx的博客

deep learning

转载 45 Questions to test a data scientist on basics of Deep Learning (along with solution)

转自https://jizhi.im/blog/post/45_questions_deep_learning 原文https://www.analyticsvidhya.com/blog/2017/01/must-know-questions-deep-learning/ Q1 神经网络...

2018-04-25 15:23:48

阅读数 99

评论数 0

原创 Learning Multi-Domain Convolutional Neural Networks for Visual Tracking 论文笔记

0 摘要 我们提出了一种基于CNN的视觉跟踪算法。算法从多个标注的videos中,来学习物体的共享的表示,协助进行跟踪。 网络的结构:shared layers + multiple branches of domain-specific layers 训练的时候,利用一些video来共同训...

2018-04-19 19:14:03

阅读数 560

评论数 0

原创 Object classification论文中训练策略

一、AlexNet 1、超参设定 batchsize=128 (图像大小224 * 224) momentum=0.9 weight decay=0.0005 权重衰减对于模型学习很重要。 初始learning rate=0.01 优化方法:带动量的随机梯度下降 2、初始化...

2018-04-18 11:19:35

阅读数 179

评论数 0

原创 Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 论文笔记

0 摘要 非常深的卷积网络已成为近年来图像识别性能最大进展的核心。Inception architectures(Inception结构)已被证明在相对较低的计算成本下实现了非常好的性能。 在更加传统的架构中引入residual connections(残差连接)的ResNet取得了2015年I...

2018-04-18 11:12:08

阅读数 86

评论数 0

原创 tensorflow实践-ResNet50实现

import tensorflow as tf from tensorflow.python.training import moving_averages fc_initializer = tf.contrib.layers.xavier_initializer conv2d_initiali...

2018-04-17 15:29:42

阅读数 2580

评论数 0

原创 Deep Residual Learning for Image Recognition 论文笔记

0 摘要 训练更深的神经网络是很困难的,本论文提出了一种残差学习的框架,这种网络相比以前的网络更深,而且可以减轻训练的负担。我们明确地将这层作为输入层相关的学习残差函数,而不是学习未知的函数。这种残差网络很容易优化,而且可以显著增加深度来提高准确性。 1 介绍 网络的深度非常重要。通过增...

2018-04-17 10:26:48

阅读数 149

评论数 0

原创 Rethinking the Inception Architecture for Computer Vision 论文笔记

0 摘要 自从2014之后,深度卷积网络成为了计算机视觉解决方案的主流。模型的大小和计算成本的增加可以直接转换成质量收益。但是对于像移动视觉和大数据场景,计算效率和低参数计算仍是限制因素。本论文探索一种扩大网络的方法,目标是通过适当的分解卷积和积极的正则化来尽可能地有效利用增加的计算。 1...

2018-04-16 15:08:46

阅读数 194

评论数 0

原创 tensorflow实践-batch normalization(一)

tensorflow 中关于batch normalization的函数主要有三个: -tf.nn.batch_normalization -tf.layers.batch_normalization -tf.contrib.layers.batch_norm 一、tf.nn.batc...

2018-04-16 10:15:00

阅读数 236

评论数 0

原创 Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文笔记

0 摘要    当前神经网络层之前的神经网络层的参数变化,会引起神经网络每一层输入数据的分布产生变化,这使得训练一个深度神经网络变得复杂。通过设置较小的学习率以及更谨慎的初始化参数减慢了训练,并且由于非线性饱和(注:如sigmoid激活函数的非线性饱和问题),训练一个深度神经网络会非常困难。这种现...

2018-04-15 17:03:44

阅读数 171

评论数 0

原创 Network In Network 论文笔记

   参考了其他公开的博客,在翻译论文的基础上结合个人理解。如果有理解不到位的地方,请指正。  转载请注明出处:https://blog.csdn.net/weixin_37904412/article/details/79938708  此论文是在2014年发表的,这篇paper提出了两个创新点...

2018-04-14 15:10:17

阅读数 268

评论数 0

提示
确定要删除当前文章?
取消 删除