Tensorflow函数:tf.Variable()

一. 函数的作用

该函数的主要功能是声明一个变量,用于生成一个初始值为initial-value的变量,必须指定初始化值!!

(与tf.get_variable()的区别详见其他博客)

二. 函数的参数说明

1. 函数的整体结构如下:

tf.Variable(initial_value, trainable, collections, validate_shape, caching_device, name, variable_def, dtype, 

                 expected_shape, import_scope, shape)

2. 函数中的各个参数解释如下:

  • initial_value: 初始化变量值,默认值None,通常可以搭配tensorflow 随机生成函数,常见的生成函数如下:

随机生成函数:

        tf.random_normal(shape, mean, stddev, dtype, seed, name)

        tf.truncated_normal(shape, mean, stddev, dtype, seed, name)

        tf.random_uniform(shape, minval, maxval, dtype, seed, name)

        tf.random_gamma(shape, alpha, brta, dtype, seed, name)

固定生成函数:

         tf.zeros(shape, dtype, name)

         tf.ones(shape, dtype, name)

         tf.fill(dims, value, name)

         tf.constant(value, dtype, shape, name, verify_shape)

  • trainable: 若为‘True’,则该变量为可训练变量,自动被加入GraphKeys.TRAINABLE_VARIABLES。
  • coolections: 为一个集合列表的关键字,新变量将被添加到这个集合中,默认[GraphKeys.GLOBAL_VARIABLES]。
  • validate_shape: 默认为True,表示该变量的形状不接受更改。
  • caching_device: 可选设备字符串,描述应该缓存变量以供读取的位置。
  • name: 定义该变量的名称,默认为“Variable”并自动获取。
  • dtype: 定义该变量的数据类型,如果设置,则initial_value将转换为给定类型。
  • expected_shape: 为TensorShape。如果设置,则initial_value应具有此形状。
  • import_scope: 可选字符串。要添加到变量的名称范围。仅在从协议缓冲区初始化时使用。
  • shape: 定义该变量的数据形状,若搭配tensorflow 随机生成函数使用,则该参数一般忽略

注:a. 各个参数的解释可以参考相关博客

b. 可以通过tf.all_variables()函数查看所有变量,通过tf.trinable_variable()函数查看可训练变量

三. 函数的使用

1. 采用tf.Variable()进行变量创建


#*******************************导入相关模块***********************************#
import tensorflow as tf
import numpy as np

#*******************************声明两个变量***********************************#
x1 = tf.Variable(tf.random_normal([2,3], mean=0, stddev=0.1), trainable=True, name='x1')
x2 = tf.Variable(tf.constant([1,2,3,4]))

#********************************创建会话*************************************#
with tf.Session() as sess:
    #-------------------变量进行初始化
    init_op = tf.global_variables_initializer()
    sess.run( init_op )
    #-------------------输出变量及名称
    print( sess.run(x1) )
    print( x1.op.name )
    print( sess.run(x2) )
    print( x2.op.name )


#--------------------模型的输出
[[-0.07220871 -0.01207301  0.10254947]
 [ 0.11671194  0.02199386 -0.03869385]]

x1

[1 2 3 4]

Variable

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是在嵌入层使用PGD生成扰动样本的TensorFlow版本代码: ```python import tensorflow as tf def pgd_attack(emb, input_data, eps=0.3, alpha=0.01, iters=40): """ PGD攻击方法的实现 :param emb: 嵌入层 :param input_data: 原始输入数据 :param eps: 扰动范围 :param alpha: 每一步的扰动大小 :param iters: 迭代次数 :return: 对原始数据的PGD攻击后的结果 """ delta = tf.Variable(tf.zeros_like(input_data), trainable=True) # 初始化扰动 for i in range(iters): with tf.GradientTape() as tape: input_adv = emb(input_data + delta) # 对输入数据加上扰动后,再通过嵌入层进行处理 loss = tf.reduce_mean(tf.square(input_adv - emb(input_data))) # 计算损失函数 gradient = tape.gradient(loss, delta) # 计算损失函数关于扰动的梯度 signed_grad = tf.sign(gradient) # 对梯度进行符号函数操作 delta = tf.clip_by_value(delta + alpha * signed_grad, -eps, eps) # 对扰动进行更新,并进行截断 return input_data + delta # 返回对原始数据进行PGD攻击后的结果 ``` 其中,参数`emb`是嵌入层,`input_data`是原始输入数据,`eps`是扰动范围,`alpha`是每一步的扰动大小,`iters`是迭代次数。 在函数内部,我们首先初始化一个可训练的扰动`delta`,并进行`iters`次迭代,每次迭代都对输入数据加上扰动后,再通过嵌入层进行处理,并计算出损失函数。然后,我们计算损失函数关于扰动的梯度,并对梯度进行符号函数操作。最后,我们对扰动进行更新,并进行截断。最终,我们返回对原始数据进行PGD攻击后的结果。 需要注意的是,在嵌入层中使用PGD攻击时,我们需要对输入数据进行嵌入处理,并将嵌入处理后的结果作为扰动的输入。这样才能保证扰动对嵌入层产生影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值