本章节中的方法都基于tensorflow官方文档2.5中的定义和官方文档中1.15版本的定义,左侧是V1版本的旧名称,右侧是V2现行可用的替代函数。最新日期为2021.5,
tf.random_uniform() || tf.random.uniform()
shape:一维整数张量或 Python 数组.输出张量的形状.
minval:dtype 类型的 0-D 张量或 Python 值;生成的随机值范围的下限;默认为0.
maxval:dtype 类型的 0-D 张量或 Python 值.要生成的随机值范围的上限.如果 dtype 是浮点,则默认为1 .
dtype:输出的类型:float16、float32、float64、int32、orint64.
seed:一个 Python 整数.用于为分布创建一个随机种子.查看 tf.set_random_seed 行为.
name:操作的名称(可选).
tf.zeros()
tf.zeros(
shape, dtype=tf.dtypes.float32, name=None
)
参数:
shape:一维整数张量或 Python 数组.输出张量的形状.
dtype:输出的类型:float16、float32、float64、int32、orint64.
name:
tf.math.reduce_mean()
tf.math.reduce_mean(
input_tensor, axis=None, keepdims=False, name=None
)
参数:
input_tensor 要计算的张量. Should have numeric type.
axis 计算沿着的方向/维度 If None (the default), reduces all dimensions. Must be in the range [-rank(input_tensor),rank(input_tensor)).
keepdims 是否降维度,设置为True,输出的结果保持输入tensor的形状,设置为False,输出结果会降低维度;
name A name for the operation (optional).
tf.train.GradientDescentOptimizer ||tf.compat.v1.train.GradientDescentOptimizer
tf.train.GradientDescentOptimizer(
learning_rate, use_locking=False, name='GradientDescent'
)
下属方法:
minimize
minimize(
loss, global_step=None, var_list=None, gate_gradients=GATE_OP,
aggregation_method=None, colocate_gradients_with_ops=False, name=None,
grad_loss=None
)
通过更新参数最小化loss