深度学习
文章平均质量分 88
傲娇的程序猿
这个作者很懒,什么都没留下…
展开
-
Tensorflow系列:Batch-Normalization层
Batch-Normalization有三种定义格式,下面分别介绍:1、tf.contrib.layers.batch_normtf.contrib.layers.batch_norm( inputs,#输入 decay=0.999,#衰减系数。合适的衰减系数值接近1.0,特别是含多个9的值:0.999,0.99,0.9。如果训练集表现很好而验证/测试集表现得不好,选择 ...原创 2018-05-20 16:22:32 · 1126 阅读 · 0 评论 -
Style-Transfer 那些事儿
阶段一最初的用神经网络实现的风格转换是需要不断迭代的,不仅速度慢,而且我要在A图加上B图的风格,就需要分别根据这两幅图进行不断前反向传播,更新输入,每次得到一张新的图都需要重新训练一次,效率实在太低。称之为style transfer。代表文章:2015年Gatys发表的A Neural Algorithm ofArtistic Style。主要思想:风格转换后的图像应该是取一幅画的style,另...原创 2018-06-06 17:24:46 · 1824 阅读 · 0 评论 -
Faster Rcnn 源码解析(四)—— proposals_targte_layer.py
功能: 根据GTbox和topN proposals选择满足要求的128个proposals(包括fg和bg),然后加上物体类别标签和bbox的回归目标,只有在该类别的对应位置上面才会有位置信息),并计算权重weights。(这128个proposals是包含了Gtbox的?)输入:bottom[0]: rpn_rois,从proposal_layer提取到的proposalsbotto...原创 2018-05-16 21:20:37 · 606 阅读 · 0 评论 -
ResNet那些不解之谜
摘要残差网络更容易优化,并且可以从显著增加的深度中获得准确性。在ImageNet数据集上,我们对剩余的网进行评估,其深度为152层,比VGG网41层更深,但仍可以保证有较低的复杂度。 解决问题:1)网络深度加深,会产生梯度消失和爆炸。利用规范化的初始化和Batch Normalization解决,使得具有数十层的网络通过随机梯度下降(SGD)方法可以开始收敛。2)会产生网络退化的现象,不是由于过拟...原创 2018-05-09 13:08:56 · 1549 阅读 · 4 评论 -
SSD配置和训练以及遇到的坑
SSD配置1、clone作者github下的caffe文件包git clone https://github.com/weiliu89/caffe.gitcd caffegit checkout ssd(出现“分支”则说明copy-check成功...作者caffe目录下有三个分支fcn/master/ssd, 利用git checkout来切换分支,否则只有master目录下的文件,这一步特...原创 2018-05-12 20:34:35 · 2974 阅读 · 1 评论 -
Faster Rcnn 源码解析(二)—— proposals_layers.py
输入:ProposalLayer有三个输入bottom[0]:是每一个anchor是否是前景的概率,大小为:(batch_size,2*A,w,h),A表示anchor的数量bottom[1]: 每个anchor的坐标偏移量,大小为:(batch_size,4*A,w,h)bottom[2]: 'im_info',图片w,h,scale输出:top[0]:M行5列,M表示proposals的...原创 2018-05-16 15:35:14 · 561 阅读 · 0 评论 -
Faster Rcnn 源码解析(一)—— anchor_targte_layer.py
rpn_conv/3x3层,3*3卷积卷积层,featuremap为256。每个像素点用256的向量表示。rpn_cls_score层,生成2(bg/fg) * (anchors)的output。rpn_bbox_pred层,生成4 * (anchors)的output。这里的4暗示的是(x-xa)/wa;(y-ya)/ha; log(w/wa); log(h/ha);rpn_cls_sc...原创 2018-05-16 10:02:57 · 793 阅读 · 0 评论 -
Faster Rcnn 源码解析(三)—— bbox_transform.py
简介:这个代码里面主要是一些在anchor_targte_layer.py和proposals_layers.py中使用到的一些函数,比较简单,主要是帮助以上两个代码理解。# --------------------------------------------------------# Fast R-CNN# Copyright (c) 2015 Microsoft# Licensed ...原创 2018-05-16 15:47:06 · 2952 阅读 · 5 评论 -
实例分割之——Instace-sensitive Fully Convolutional Networks
背景:FCN只能做实例分割,试想如果两个挨着在一起的人,只能是一大坨,不能区别到底是几个人。比如,到底是一个胖子还是两个瘦子呢?在FCN基础上面做的改进,利用全卷积实现了Instance-Segmentation。相关工作:1)提出了 instance-sensitive score map 其实就是位置敏感图,将FCN中原来输出的一个feature map,换成了k²(9个),这9个fea...原创 2018-06-02 22:10:51 · 783 阅读 · 0 评论 -
batch normalization 理解
对batch normalization 一直属于一知半解状态,二面被问的一脸懵逼,所以决定好好理一理这个问题。1、What is batch normalization?batch normalization 其实就是对数据做一个批量的规范化操作,使得在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。具体实现过程如下:A、对于一个mini-batch,求数据的均值,...原创 2018-09-24 10:12:10 · 897 阅读 · 0 评论