关于初次使用tensorflow遇到的坑

详细教程:tensorflow

# -*- coding: utf-8 -*-
import tensorflow as tf
import numpy as np

#  tf.disable_v2_behavior()

# create data
x_data = np.random.rand(100).astype(np.float32)     # 一百个随机数列  定义数据类型
y_data = x_data*0.1+0.3          # W为0.3

# create tensorflow structure start #
# AttributeError: module 'tensorflow' has no attribute 'random_uniform'
# V2版本里面random_uniform改为random.uniform
Weights = tf.Variable(tf.random.uniform((1,), -1.0, 1.0))  # 随机数列生产的参数 [1] W结构为一维 -1.0, 1.0 随机生产数列的范围
# TypeError: 'function' object is not subscriptable
# 一般是少了括号
biases = tf.Variable(tf.zeros((1,)))     # 定义初始值 0

# y = Weights*x_data+biases               # 定义预测值y

def loss():
    return tf.keras.losses.MSE(y_data, Weights*x_data+biases)  # alias 计算loss  预测值与真实值的差别
# AttributeError: module 'tensorflow_core._api.v2.train' has no attribute 'GradientDescentOptimizer'
# "tf.train.GradientDescentOptimizer" change "tf.compat.v1.train.GradientDescentOptimizer"
# `loss` passed to Optimizer.compute_gradients should be a function when eager execution is enabled.
# 神经网络知道误差以后 优化器(optimizer)减少误差 提升参数的准确度
# 其中的minimize可以拆为以下两个步骤:
# ① 梯度计算
# ② 将计算出来的梯度应用到变量的更新中
# 拆开的好处是,可以对计算的梯度进行限制,防止梯度消失和爆炸
# optimizer = tf.compat.v1.train.GradientDescentOptimizer(0.5)
# train = optimizer.minimize(loss)
optimizer = tf.keras.optimizers.SGD(learning_rate=0.5)  # alias: tf.optimizers.SGD learning_rate=0.5
#init = tf.initializer_all_variables()
#  create tensorflow structure end #

# create session
# sess = tf.Session()
# sess.run(init)          # Very important

for step in range(201):
    optimizer.minimize(loss, var_list=[Weights,biases])
    if step % 20 == 0:
        print("{} step, Weights = {}, biases = {}"
              .format(step, Weights.read_value(), biases.read_value()))  # read_value函数可用numpy替换

详细教程:tensorflow

http://blog.nodetopo.com/2019/12/20/morvan%e5%8d%9a%e5%ae%a2-tensorflow2%e5%ad%a6%e4%b9%a0/
  • 15
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
这个错误通常是由于你的TensorFlow版本启用了Eager Execution(即立即执行模式),而在Eager Execution模式下,无法导出/导入Meta Graph。 解决这个问题的方法之一是禁用Eager Execution。你可以使用以下代码在TensorFlow 2.0中禁用Eager Execution: ```python import tensorflow as tf tf.compat.v1.disable_eager_execution() ``` 如果你正在使用TensorFlow 1.x,则可以按照以下方式禁用Eager Execution: ```python import tensorflow as tf tf.compat.v1.disable_eager_execution() ``` 如果你需要使用Eager Execution,但又需要导出/导入Meta Graph,则可以使用`tf.compat.v1.Session()`来创建一个不启用Eager Execution的会话。例如,你可以按照以下方式导出Meta Graph: ```python import tensorflow as tf # 构建计算图 x = tf.placeholder(tf.float32, shape=[None, 784], name='x') y = tf.placeholder(tf.float32, shape=[None, 10], name='y') W = tf.Variable(tf.zeros([784, 10]), name='W') b = tf.Variable(tf.zeros([10]), name='b') logits = tf.matmul(x, W) + b loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=y)) train_op = tf.train.GradientDescentOptimizer(0.5).minimize(loss) # 创建会话并导出Meta Graph with tf.compat.v1.Session() as sess: sess.run(tf.compat.v1.global_variables_initializer()) saver = tf.compat.v1.train.Saver() saver.save(sess, 'my-model', global_step=0, write_meta_graph=True) ``` 在这个示例中,我们使用`tf.compat.v1.Session()`创建了一个不启用Eager Execution的会话,并使用`saver.save()`方法导出了Meta Graph,使得我们可以在其他地方导入该图。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值