TensorFlow学习笔记-方法篇

本章节中的方法都基于tensorflow官方文档2.5中的定义和官方文档中1.15版本的定义,左侧是V1版本的旧名称,右侧是V2现行可用的替代函数。最新日期为2021.5,

tf.random_uniform() || tf.random.uniform()

shape:一维整数张量或 Python 数组.输出张量的形状.
minval:dtype 类型的 0-D 张量或 Python 值;生成的随机值范围的下限;默认为0.
maxval:dtype 类型的 0-D 张量或 Python 值.要生成的随机值范围的上限.如果 dtype 是浮点,则默认为1 .
dtype:输出的类型:float16、float32、float64、int32、orint64.
seed:一个 Python 整数.用于为分布创建一个随机种子.查看 tf.set_random_seed 行为.
name:操作的名称(可选).

tf.zeros()

tf.zeros(
    shape, dtype=tf.dtypes.float32, name=None
)

参数:
shape:一维整数张量或 Python 数组.输出张量的形状.
dtype:输出的类型:float16、float32、float64、int32、orint64.
name:

tf.math.reduce_mean()

tf.math.reduce_mean(
    input_tensor, axis=None, keepdims=False, name=None
)

参数:
input_tensor 要计算的张量. Should have numeric type.
axis 计算沿着的方向/维度 If None (the default), reduces all dimensions. Must be in the range [-rank(input_tensor),rank(input_tensor)).
keepdims 是否降维度,设置为True,输出的结果保持输入tensor的形状,设置为False,输出结果会降低维度;
name A name for the operation (optional).

tf.train.GradientDescentOptimizer ||tf.compat.v1.train.GradientDescentOptimizer

tf.train.GradientDescentOptimizer(
    learning_rate, use_locking=False, name='GradientDescent'
)

下属方法:

minimize
minimize(
    loss, global_step=None, var_list=None, gate_gradients=GATE_OP,
    aggregation_method=None, colocate_gradients_with_ops=False, name=None,
    grad_loss=None
)

通过更新参数最小化loss

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值