flowpaper java_如何在TensorFlow中实现二值化器层?

博主在尝试在TensorFlow中实现二值化层,遇到反向传播梯度问题。尝试了两种方法:C语言实现和纯Python方法。在Python方法中定义了_binarizer函数,并注册了对应的梯度函数_BinarizerNoOp。但在应用到(?, 4, 4, 64)形状的张量时,由于批量大小的不匹配导致错误。问题在于二值化操作后批量大小的维度丢失。" 94752884,7563511,CentOS J1900软路由配置指南,"['Linux系统', '网络配置', '路由器', 'iptables', 'CentOS']
摘要由CSDN通过智能技术生成

我正在尝试在paper的第4页中实现二进制文件 . 它_2512209只是这个:

3AIvT.png

没有为此功能反向传播的渐变 . 我想在TensorFlow中做这件事 . 有两种方法可以解决它:

使用TensorFlow在C中实现它 . 但是,instructions对我来说还不太清楚 . 如果有人能引导我通过它会很棒 . 我不清楚的一件事是为什么ZeroOutOp的渐变在Python中实现?

我决定采用纯Python方法 .

这是代码:

import tensorflow as tf

import numpy as np

def py_func(func, inp, out_type, grad):

grad_name = "BinarizerGradients_Schin"

tf.RegisterGradient(grad_name)(grad)

g = tf.get_default_graph()

with g.gradient_override_map({"PyFunc": grad_name}):

return tf.py_func(func, inp, out_type)

'''

This is a hackish implementation to speed things up. Doesn't directly follow the formula.

'''

def _binarizer(x):

probability_matrix = (x + 1) / float(2)

probability_matrix = np.matrix.round(probability_matrix, decimals=0)

np.putmask(probability_matrix, probability_matrix==0.0, -1.0)

return probability_matrix

def binarizer(x):

return py_func(_binarizer, [x], [tf.float32], _BinarizerNoOp)

def _BinarizerNoOp(op, grad):

return grad

问题发生在这里 . 输入是32x32x3 CIFAR图像,它们在最后一层减少到4x4x64 . 我的最后一层的形状是(?,4,4,64),在哪里?是批量大小 . 通过调用以下方式完成此操作后:

binarized = binarizer.binarizer(h_pool3)

h_deconv1 = tf.nn.conv2d_transpose(h_pool3, W_deconv1, output_shape=[batch_size, img_height/4, img_width/4, 64], strides=[1,2,2,1], padding='SAME') + b_deconv1

发生以下错误:

ValueError:形状(4,4,64)和(?,4,4,64)不兼容

我可以猜到为什么会这样 . 的?代表批量大小,在最后一层通过二值化器后,?维度似乎消失了 .

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值