自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

妙猪的专栏

代码的世界,即为完美的世界

  • 博客(13)
  • 资源 (1)
  • 收藏
  • 关注

翻译 tensorflow中slim模块api介绍

最近需要使用slim模块,先把slim的介绍放在这,后续会进行整理github:https://github.com/tensorflow/tensorflow/edit/master/tensorflow/contrib/slim/README.mdTensorFlow-SlimTF-Slim is a lightweight library for defining, trai

2017-08-29 20:13:35 66106 20

原创 tensorflow 卷积、反卷积形式的去噪自编码器

对于去噪自编码器,网上好多都是利用全连接神经网络进行构建,我自己写了一个卷积、反卷积形式的去噪自编码器,其中的参数调优如果有兴趣的话,可以自行修改查看结果。数据集我使用最简单的mnist:网络结构:mnist输入(28*28=784向量) => 28*28*1矩阵 => 卷积层1 => 14*14*64 => 卷积层2 => 7*7*64 => 卷积层3 =>

2017-08-24 15:01:47 9556 15

原创 将mnist原始图像转换为tfrecords格式

官方其实是给了mnist数据读取接口的,但还是自己实现一下,这样内部的处理机制就都明白了mnist数据集中包含测试集和训练集(训练+验证),每个集合中包含若干图片和一个标签文件:转tfrecords代码#! -*- coding: utf-8 -*-import tensorflow as tffrom PIL import Imageconfig =

2017-08-22 18:14:31 2622

原创 将tensorflow网络模型(图+权值)保存为.pb文件,并从.pb文件中还原网络模型

工程结构如下:将网络模型(图+权值)保存为.pb文件  write.py# -*- coding: utf-8 -*-from __future__ import absolute_import, unicode_literalsfrom tensorflow.examples.tutorials.mnist import input_dataimport tensorfl

2017-08-22 13:43:49 13644 3

原创 tensorflow中tfrecords格式的读写

关于Tensorflow数据的读取,有三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据(一次一喂)。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据(从文件流中自动读取)。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。

2017-08-21 21:07:41 1920

原创 tensorflow中指定GPU及GPU显存设置

查看机器上GPU情况命令: nvidia-smi功能:显示机器上gpu的情况命令: nvidia-smi -l功能:定时更新显示机器上gpu的情况其中左上侧有0、1、2、3的编号,表示GPU的编号,在后面指定GPU时需要使用这个编号。在终端执行程序时指定GPU  CUDA_VISIBLE_DEVICES=1   python  your_

2017-08-14 17:44:26 104140 5

原创 FCN8s 代码解析

FCN.py# -×- coding: utf-8 -*-from __future__ import print_functionimport tensorflow as tfimport numpy as npimport TensorflowUtils as utilsimport read_MITSceneParsingData as scene_parsing

2017-08-13 16:19:55 10030 14

转载 深度学习反向传播

文章出处: http://blog.csdn.net/han_xiaoyang/article/details/503218731. 引言问题描述与动机:大家都知道的,其实我们就是在给定的图像像素向量x和对应的函数f(x),然后我们希望能够计算f在x上的梯度(∇f(x))我们之所以想解决这个问题,是因为在神经网络中,f对应损失函数L,而输

2017-08-13 02:07:49 2074

翻译 用于语义分割的全卷积网络 (fully convolutional networks for semantic segmentation)

摘要卷积网络在特征分层领域是非常强大的视觉模型。我们证明了经过端到端、像素到像素训练的卷积网络超过语义分割中最先进的技术。我们的核心观点是建立“全卷积”网络,输入任意尺寸,经过有效的推理和学习产生相应尺寸的输出。我们定义并指定全卷积网络的空间,解释它们在空间范围内dense prediction任务(预测每个像素所属的类别)和获取与先验模型联系的应用。我们改编当前的分类网络(AlexNet

2017-08-12 22:19:30 7549 2

翻译 自然图像抠图的一种闭式解 (a closed-form solution to natual image matting)

摘要交互式数字抠图,基于有限的用户输入从图像中提取前景物体,是图像和视频处理中非常重要的任务。从计算机视觉角度,这个任务非常具有挑战性,因为它是一个病态问题,每个像素上都必须估计前景和背景的颜色,还有单通道颜色的前景不透明度(alpha磨砂)。当前的方法将估计严格限制在图像的一小部分,基于已知像素附近估计前景和背景颜色,或者用alpha估计反转前景和背景颜色迭代执行非线性估计。本文提供了自

2017-08-12 22:16:26 4715 1

转载 【TensorFlow】tf.nn.conv2d是怎样实现卷积的?

文章出处:http://blog.csdn.net/mao_xiao_feng/article/details/53444333tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要tf.nn.conv2d(input, filter, strides, paddi

2017-08-06 18:17:29 785

转载 Tensorflow的反卷积(上采样)

文章出处:http://blog.csdn.net/mao_xiao_feng/article/details/71713358反卷积操作是卷积的反向如果你随时都记住上面强调的重点,那你基本就理解一大半了,接下来通过一些函数的介绍为大家强化这个观念conv2d_transpose(value, filter, output_shape, strides, paddi

2017-08-06 18:11:04 17126 2

转载 利用卷积自编码器对图片进行降噪

文章出处: https://zhuanlan.zhihu.com/p/27902193前言这周工作太忙,本来想更把Attention tranlsation写出来,但一直抽不出时间,等后面有时间再来写。我们这周来看一个简单的自编码器实战代码,关于自编码器的理论介绍我就不详细介绍了,网上一搜一大把。最简单的自编码器就是通过一个encoder和decoder来对输入进行复现,例如我们将

2017-08-06 17:24:22 9621

猜数字源代码(javascript)

猜数字游戏的核心算法程序,代码非常简单,都是尽量以顺序次序写的

2012-04-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除