tensorflow学习
文章平均质量分 67
holmes_MX
这个作者很懒,什么都没留下…
展开
-
炼丹技巧(一)——MNIST数据上的炼丹(TensorFlow)之Shuffle_batch的探索
0. 写作目的好记性不如烂笔头。记录在学习过程中遇到的问题,以及对问题的思考和解决方法,为后来人提供一些经验。1. 网络的重要性虽然MNIST数据集相对比较简单,已经不能作为网络的评价标准,因为许多网络在MNIST数据上的精度都超过了99%,但是网络也不是随意选择的。刚开始随即设计了一个网络,用于测试MNIST数据集,收敛较慢,因此修改了网络的结构。原始网络:原始网络部分训...原创 2018-08-22 11:16:40 · 1099 阅读 · 2 评论 -
TensorFlow 自作tfrecord
转载至Zz_Krystal: http://blog.csdn.net/wiinter_fdd/article/details/72835939 运行平台: Windows Python版本: Python3.x IDE: Spyder前言 最近一直在研究深度学习,主要是针对卷积神经网络(CNN)...转载 2018-08-19 10:40:27 · 237 阅读 · 0 评论 -
基于tensorflow的MNIST探索(基于图像版本的实现与探索)——如何读取较大数据集进行训练(基于TFRecord)(二)
注意:使用TFRecord是,存在两个实际的问题: 1) 制作数据时,先制作train_data_label_list(内容为[ [imagePath, label], [imagePath, label], [], [], ,,, ]),然后对次数据进行打乱,否则即使采用tf.train.shuffle_batch给出的结果仍不是打乱的 猜测原因:是由于每一类的数...原创 2018-08-22 14:02:55 · 526 阅读 · 0 评论 -
基于tensorflow的MNIST探索(基于图像版本的实现与探索)——如何读取较大数据集进行训练(一)
目录 0. 写作目的1. 前言2. 即用即读的训练方式2.1 数据的准备2.2 读取数据的类3. 进行训练(TensorFlow)3.1 训练的网络3.2 训练的结果0. 写作目的好记性不如烂笔头。1. 前言对于较小的数据处理时,我们可以完全读入内存,但是针对较大的数据集,如果一次性读入内存,将会出现一下两点问题:1) 内存是否够用。一些...原创 2018-08-21 18:19:23 · 750 阅读 · 0 评论 -
tensorflow学习(一)——有关tensorflow不同层的使用(tf.nn 和tf.layers以及tf.contrib.layers)的简单区别
小trick: 对于使用tf.layers建立的神经网络,如果想要对loss函数进行正则话,可以采用如下方式[1]:但是该方法不适用于编程者自己定义不同层的正则化。 l2 = tf.add_n([tf.nn.l2_loss(var) for var in tf.trainable_variables()])注意:本文中tensorflow ver=1.80. 写作目的好记性不...原创 2018-09-02 18:50:33 · 6076 阅读 · 2 评论 -
tensorflow 多个模型测试阶段速度越来越慢问题的解决方法
0. 写作目的好记性不如烂笔头。1. 问题描述tensorflow中多个模型在测试阶段,出现测试速度越来越慢的情况,通过查阅资料发现,由于tensorflow的图是静态图,但是如果直接加在不同的图(即不同的模型),应该都会存在内存中,因此造成了测试速度越来越慢,甚至导致机器卡顿(博主在测试100个模型时,一般测试20个模型左右出现卡顿),因此有必要探究更快的测试速度方法。2. 方法...原创 2018-09-12 13:17:23 · 5454 阅读 · 0 评论 -
tensorflow学习之——从保存的权重中使用tensorboard查看网络
0. 写作目的好记性不如烂笔头。1. tensorboard模型保存说明采用tf.train.Saver保存的模型,主要文件有:1) checkpoint : 用于记录训练过程中保存的各模型,在第一行会保存最新的模型的路径: model.ckpt2) model.ckpt.meta: 为保存的Graph,即网络3) model.ckpt.index : 为string-s...原创 2018-10-09 22:05:34 · 2152 阅读 · 0 评论