hjimce的专栏

学如逆水行舟,不进则退

hjimce算法类博文目录

hjimce算法类博文目录个人博客:http://blog.csdn.net/hjimce个人qq:1393852684知乎:https://www.zhihu.com/people/huang-jin-chi-28/activities一、深度学习深度学习(七十三)pytorch学习笔记深度学习...

2016-01-24 13:12:52

阅读数:21705

评论数:15

深度学习(七十三)pytorch学习笔记

先吐槽一下,深度学习发展速度真的很快,深度学习框架也在逐步迭代,真的是苦了俺这搞深度学习程序员。本人从三年前开始学深度学习开始,这些深度学习框架也是一个换过一个,从keras、theano、caffe、darknet、tensorflow,最后到现在要开始使用pytorch。一、变量、求导torc...

2018-03-25 14:48:53

阅读数:587

评论数:1

深度学习(七十二)tensorflow 集群训练

#encoding:utf-8 # -*- coding: utf-8 -*- #使用说明:1、修改分类数目;2、修改输入图片大小; # 3、修改是否启用集群; 4、修改batch size大小;5、修改数据路径、模型保存路径 #6、设置是否启用boostrap loss 损失函数 import ...

2018-03-22 10:24:20

阅读数:368

评论数:1

深度学习(七十一)3D CNN时空特征学习

2018-03-20 12:06:48

阅读数:489

评论数:3

深度学习(七十二)ssd物体检测

def ssd_anchor_one_layer(img_shape, feat_shape, sizes, ratios, ...

2018-03-05 20:45:59

阅读数:449

评论数:0

深度学习(七十一)darknet 源码阅读

深度学习(七十一)darknet 源码阅读

2017-08-01 13:51:22

阅读数:2038

评论数:0

深度学习(七十)darknet 实现编写mobilenet源码

)parse.c文件中函数string_to_layer_type,添加网络层类型解析: if (strcmp(type, "[depthwise_convolutional]") == 0) return DEPTHWISE_CONVOLUTIONAL; (2)darknet...

2017-07-27 10:39:53

阅读数:4818

评论数:15

tensorflow windows

conda create -n py35 python=3.5activate py35pip install --ignore-installed --upgrade https://storage.googleapis.com/tensorflow/windows/gpu/tensorflow...

2017-07-19 17:20:55

阅读数:819

评论数:0

从零开始编写深度学习库(五)PoolingLayer 网络层CPU编写

记录:编写卷积层和池化层,比较需要注意的细节就是边界问题,还有另外一个就是重叠池化的情况,这两个小细节比较重要,边界问题pad在反向求导的时候,由于tensorflow是没有计算的,另外一个比较烦人的是Eigen::Tensor的rowmajor、和colmajor问题,也很烦人。为了跟tenso...

2017-07-13 10:57:50

阅读数:1520

评论数:1

深度学习(六十八)darknet使用

这几天因为要对yolo进行重新训练,需要用到imagenet pretrain,由于网络是自己设计的网络,所以需要先在darknet上训练imagenet,由于网上都没有相关的说明教程,特别是图片路径是怎么和类别标签对应起来的,让我百思不得其解,所以最后就自己去查看了darknet的源码,发现原来...

2017-07-05 16:42:47

阅读数:8648

评论数:1

深度学习(六十九)darknet 实现实验 Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffma

原始模型大小64M:mAP=0.224 训练500次,模型大小54M:mAP=0.203 训练5000次,模型大小49M:mAP=0.214 训练50000次,模型大小39M:mAP=0.221 训练100000次,模型大小30M:mAP=0.231

2017-07-04 14:07:03

阅读数:2697

评论数:13

深度学习(六十六)生成模型、最大化似然、KL散度

成模型中,假设样本数据是来自于未知的数据分布Pr中采样得到,生成模型的学习过程就是要学习一个Pr的近似概率分布Pθ,其中θ是模型的参数。对于Pθ有两种建模方式: (1)直接用参数θ来描述密度函数。也就是概率密度函数满足: (2)通过已知分布的随机变量Z,用参数θ的变换函数gθ(z)来描述概率密度...

2017-06-27 09:45:55

阅读数:2021

评论数:0

深度学习(六十七)metal forge深度学习库使用

1、设置输入:let input = Input()或者let input = Input(width: 100, height: 100, channels: 3)2、创建网络:let output = input --> Resize(width: 28, height...

2017-06-19 17:41:45

阅读数:1176

评论数:0

深度学习(六十四)Faster R-CNN物体检测

在经典的RCNN中,物体检测的效果取得了State-of-the-art的效果,但是由于计算速度比较慢,后来在SPPNET、Fast R-CNN中,用卷积神经网络一次性提取一整张图片的特征图,然后在根据selective search在原始图片得到的搜索框,映射特征图上bbox,裁剪出featur...

2017-06-17 19:53:21

阅读数:4107

评论数:1

深度学习(六十三)空间变换网络

卷积神经网络每一层都有其强大的功能,然而它对于输入数据的空间不变性却还有很大的缺陷,可能max pooling层,具有平移不变性,然而因为max pooling是一个局部操作,在CNN中对于大尺度的空间变换并不具备不变性。于是paper提出

2017-06-07 22:42:08

阅读数:3555

评论数:0

常用数据集脚本

1、imagenet 分类:http://caffe.berkeleyvision.org/gathered/examples/imagenet.html(1)辅助工具源码caffe下面的:./data/ilsvrc12/get_ilsvrc_aux.sh可以下载imagenet相关标注文件、均值...

2017-06-05 11:45:32

阅读数:1144

评论数:0

深度学习(六十五)移动端网络MobileNets

1、L2 decay权重对精度的影响:根据文献介绍,在引入可分离卷积层的时候,建议不用用L2权重,对降低精度,于是做了如下实验:第二行是采用L2 weight decay为0.00005的权重,明显最高精度下降了接近2%2、速度对比:

2017-06-01 15:04:24

阅读数:2769

评论数:0

深度学习(六十二)SqueezeNet网络设计思想笔记

1、尽量用1*1的卷积核替代3*3的卷积核 尽可能选择1*1的卷积核为主,因为1*1的卷积核比3*3的卷积核参数少了9倍。 2、引入Squeeze layer,尽量减少每一层的输入特征图数量 比如对于3*3的卷积层,参数的个数是:(number of input channels) * (numbe

2017-05-30 11:09:30

阅读数:2089

评论数:3

从零开始编写深度学习库(五)Eigen Tensor学习笔记2.0

1、extract_image_patches函数的使用:假设Eigen::Tensor形状为(3,8,8,9),现在要对第二维、第三维根据size大小为(2,2),stride=(2,2),那么如果tensor类型是rowmajor类型,那么经过extract_image_patches后的数据...

2017-05-26 11:04:31

阅读数:1844

评论数:1

深度学习(五十七)tensorflow andorid yolo物体检测测试

一、修改tensorflow/workspace文件,取消android相关注释# Uncomment and update the paths in these entries to build the Android demo. android_sdk_repository( name...

2017-05-17 14:50:22

阅读数:3218

评论数:7

提示
确定要删除当前文章?
取消 删除
关闭
关闭