自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

翻译 Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

摘要最先进的目标检测网络依靠区域提出算法来假设目标的位置。SPPnet[1]和Fast R-CNN[2]等研究已经减少了这些检测网络的运行时间,使得区域提出计算成为一个瓶颈。在这项工作中,我们引入了一个区域提出网络(RPN),该网络与检测网络共享全图像的卷积特征,从而使近乎零成本的区域提出成为可能。RPN是一个全卷积网络,可以同时在每个位置预测目标边界和目标分数。RPN经过端到端的训练,可以生...

2019-03-21 14:41:01 497

转载 在分类中如何处理训练集中不平衡问题

原文地址:一只鸟的天空,http://blog.csdn.net/heyongluoyao8/article/details/49408131在分类中如何处理训练集中不平衡问题  在很多机器学习任务中,训练集中可能会存在某个或某些类别下的样本数远大于另一些类别下的样本数目。即类别不平衡,为了使得学习达到更好的效果,因此需要解决该类别不平衡问题。Jason Brownle

2018-01-08 20:46:20 466

转载 FaceNet: A Unified Embedding for Face Recognition and Clustering论文笔记

论文:FaceNet: A Unified Embedding for Face Recognition and Clustering时间:2015.04.13来源:CVPR 2015来自谷歌的一篇文章,这篇文章主要讲述的是一个利用深度学习来进行人脸验证的方法,目前在LFW上面取得了最好的成绩,识别率为99.63%(LFW最近数据刷的好猛)。传统的基于C

2018-01-04 22:11:54 542

转载 Going Deeper with Convolutions——GoogLeNet论文翻译

Going Deeper with ConvolutionsAbstractWe propose a deep convolutional neural network architecture codenamed Inception that achieves the new state of the art for classification and detection in

2018-01-04 16:56:58 3064

转载 conv2d函数的padding参数解释

conv2d函数原型:    tf.nn.conv2d ( input,  filter,  strides,  padding,  use_cudnn_on_gpu=None,  name=None )参数说明:    input:输入图像,shape为 [ batch,  in_height,   in_width,  in_channels ],例如 [ 1,

2018-01-02 21:50:23 4952

转载 win10下通过Anaconda安装TensorFlow-GPU1.3版本

准备安装包:visual studio 2015;Anaconda3-4.2.0-Windows-x86_64;pycharm-community;CUDA:cuda_8.0.61_win10;下载时选择 exe(local)CUDA补丁:cuda_8.0.61.2_windows;cuDNN:cudnn-8.0-windows10-x64-v6.0

2017-12-29 09:46:39 1607

转载 残差网络原理

1.背景(1)为什么残差学习的效果会如此的好?与其他论文相比,深度残差学习具有更深的网络结构,此外,残差学习也是网络变深的原因?为什么网络深度如此的重要?解:一般认为神经网络的每一层分别对应于提取不同层次的特征信息,有低层,中层和高层,而网络越深的时候,提取到的不同层次的信息会越多,而不同层次间的层次信息的组合也会越多。(2)为什么在残差之前网络的深度最深的也只是Googl

2017-12-17 22:48:03 45639 4

转载 Deep learning:BN算法

BN算法翻译 2017年10月31日 16:09:10153Motivation2015年的论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》阐述了BN算法,这个算法目前已经被大量应用,很多论文

2017-12-15 20:30:21 1942

转载 Deep learning:数据预处理技巧

前言:  本文主要是介绍下在一个实际的机器学习系统中,该怎样对数据进行预处理。个人感觉数据预处理部分在整个系统设计中的工作量占了至少1/3。首先数据的采集就非常的费时费力,因为这些数据需要考虑各种因素,然后有时还需对数据进行繁琐的标注。当这些都有了后,就相当于我们有了元素的raw数据,然后就可以进行下面的数据预处理部分了。本文是参考的UFLDL网页教程:Data Preprocessi

2017-12-15 19:44:44 1006

转载 tensorflow基础(三)——张量和会话

1概念数据用张量的形式来表示,功能上看,张量可以理解为多维数组,第n阶张量就上一个n维数组,但实现不是数组形式,只是对TF中计算结果的引用,其中没有真正保存数字,而是如何得到这些数字的计算过程。import tensorflow as tf#tf.constant是一个计算,其结果为一个张量,保存在变量a中a = tf.constant([1.0, 2.0], name="a")

2017-12-12 16:37:49 451

转载 tensorflow基础(二)--TF训练和变量

1 神经网络简介使用神经网络解决分类问题的主要步骤: 1. 提取特征向量作为输入 2. 定义神经网络结构,得到输出 3. 通过训练数据调整参数取值,这是训练神经网络的过程 4. 使用神经网络进行预测2 前向传播算法简介神经网络的结构就是不同神经元之间的连接结构。 全连接的神经网络是指相邻两层之间的任意两个节点之间都有连接。和卷积层、LSTM结构不同。

2017-12-12 16:21:36 854

转载 TensorFlow基础(一)--入门

TensorFlow深度学习框架Google不仅是大数据和云计算的领导者,在机器学习和深度学习上也有很好的实践和积累,在2015年年底开源了内部使用的深度学习框架TensorFlow。与Caffe、Theano、Torch、MXNet等框架相比,TensorFlow在Github上Fork数和Star数都是最多的,而且在图形分类、音频处理、推荐系统和自然语言处理等场景下都有丰富的应

2017-12-12 15:44:41 311

转载 优化算法、调参基本思路、正则化方式等

引言深度学习目前已成为发展最快、最令人兴奋的机器学习领域之一,许多卓有建树的论文已经发表,而且已有很多高质量的开源深度学习框架可供使用。然而,论文通常非常简明扼要并假设读者已对深度学习有相当的理解,这使得初学者经常卡在一些概念的理解上,读论文似懂非懂,十分吃力。另一方面,即使有了简单易用的深度学习框架,如果对深度学习常见概念和基本思路不了解,面对现实任务时不知道如何设计、诊断及

2017-12-12 14:39:04 1048

转载 从修正Adam到理解泛化:概览2017年深度学习优化算法的最新研究进展

Sebastian Ruder 的这篇博客总结了 2017 年深度学习优化算法的最新进展,他主要从Adam算法的局限性与提升方法、学习率衰减方案、超参数搜索、怎样学习优化和理解泛化性能等角度向我们展示近来研究者对最优化方法的思考与探索。深度学习终究是寻找一个使泛化性能足够好的(损失函数)极小值过程,它并不一定要求能搜索到非凸函数的最小值点,而需要模型的损失能得到显著性地降低

2017-12-12 14:26:44 1169

转载 ExponentialMovingAverage 学习笔记(二))

作用假如我们训练模型迭代了100K,每2K步保存一个snapshot。在evaluation时, 我们可以只使用最后得到的model-100K,也可以通过cross validation选出一最佳的model,如model-98K。 但Googlers发现(https://www.tensorflow.org/versions/r1.0/api_docs/python/tf/train/E

2017-12-12 11:12:39 346

转载 Batch Normalization 学习笔记(一))

原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covar

2017-12-11 21:19:04 216

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除