tensorflow
月半rai
这个作者很懒,什么都没留下…
展开
-
tensorflow学习(一):关于tensorflow交叉熵损失函数的一些理解
1、tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, dim=-1, name=None)sentinel 一般不用 labels 和logits形状相同 都是[batch_size,num_classes]其中labels可以是one-hot的形式,也可以是和为1的概率分布。...原创 2018-05-20 14:50:50 · 2711 阅读 · 0 评论 -
tensorflow学习(二):高效读取数据(tfrecord)
#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Mon May 28 15:29:51 2018"""import tensorflow as tfimport numpy as npfrom PIL import Imageimport osfrom scipy import miscimport ti...原创 2018-05-21 16:26:05 · 661 阅读 · 0 评论 -
经典网络复现系列(一):FCN
1、FCN网络架构FCN的前半段与VGG19架构相同,直接使用了VGG19预训练好的权重。前半段的具体架构如下:layers = ( 'conv1_1', 'relu1_1', 'conv1_2', 'relu1_2', 'pool1', 'conv2_1', 'relu2_1', 'conv2_2', 'relu2_2', 'pool2', ...原创 2018-05-27 22:50:05 · 7794 阅读 · 2 评论 -
TensorFlow学习(三):tf.scatter_nd函数
scatter_nd(indices,updates,shape,name=None)根据indices将updates散布到新的(初始为零)张量。根据索引对给定shape的零张量中的单个值或切片应用稀疏updates来创建新的张量。此运算符是tf.gather_nd运算符的反函数,它从给定的张量中提取值或切片。警告:更新应用的顺序是非确定性的,所以如果indices包含重复项...转载 2018-06-02 20:24:55 · 24107 阅读 · 9 评论 -
tensorflow学习(四):tensorflow中batch normalization的用法
网上找了下tensorflow中使用batch normalization的博客,发现写的都不是很好,在此总结下:1.原理公式如下:y=γ(x-μ)/σ+β其中x是输入,y是输出,μ是均值,σ是方差,γ和β是缩放(scale)、偏移(offset)系数。一般来讲,这些参数都是基于channel来做的,比如输入x是一个16*32*32*128(NWHC格式)的feature ma...转载 2018-06-02 21:19:32 · 606 阅读 · 0 评论 -
经典网络复现系列(二):SegNet
1、论文简要和FCN结构相似,只不过编码器使用了VGG16的13个卷积层,在池化过程中,保存了最大池化的索引。上采样到恢复到原本的位置,其他位置的元素为0,然后进行反卷积。这样做的好处在于1)改善边界描述2)减少end2end的训练参数(与FCN相比节约内存)3)这样的形式可用于多种encoder-decoder架构有工作将RNN、条件随机场(CRF)引入配合decoder做预测,有助...原创 2018-06-05 11:42:14 · 6151 阅读 · 9 评论 -
经典网络复现系列(三):GAN
1、简述最近读了Gnerative Adversarial Nets(GAN)的论文,有种无间道的感觉。其他话不说先放张图。训练网络的时候,需要大量的样本,样本数量的不足会导致网络训练的效果不好。那么我们可不可以自己生成一些样本?这时候GAN就派上了用场。GAN蕴含了两个网络博弈的思想。它由两个网络结构组成,即生成器(generator)和鉴定器(discriminator)。生成器负责产生...原创 2018-06-11 10:59:23 · 4457 阅读 · 0 评论