tensorflow常用功能的基础代码

这篇博客介绍了TensorFlow的基础使用,包括变量、常量的定义,初始化,矩阵乘法,神经网络层的添加,损失函数计算,训练步骤设置,权重可视化,卷积和池化操作,以及文件的保存和加载。还涉及到了RNN参数配置和LSTM单元的构建。
摘要由CSDN通过智能技术生成

定义变量量——
tf.variable()
tf.get_variable()
tf.name_scope()

定义常量——
tf.constant()

更新赋值——
tf.assign(1,2),把2赋值给1

初始化——
init = tf.global_variables_initializer()
初始化=tf.全局-变量-初始化

矩阵乘法——
tf.matmul()

执行步骤——
sess = tf.Session()
sess.run(init)

占位挖坑,暂时存储变量——
a1 = tf.placeholder(tf.float32)

填坑,给占位赋值——
feed_dict={a1:[3.]}

添加一个神经网络的层——
def add_layer(inputs,in_size,out_size,activation_function=None):
定义 一个神经网络层(输入,输入大小,输出打小,激励函数=默认)

定义权重矩阵——
Weights = tf.Variable(tf.random_normal([in_size,out_size]))
权重 = 定义变量(随机生成(输入大小,输出大小))

损失函数——
最小二乘:loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1]))
误差 = tf.平均(求和 平方(真实值-预测值)),坍塌维度=1
交叉熵:cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),reduction_indices=[1]))

最小化损失函数——
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
训练步骤 = tf.训练.梯度下降(0.1).最小化(误差)

可视化权重变化——
tf.summary.histogram(name+’/weights’,Weights)

定义二维卷积——
def conv2d(x,W):
return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding=‘SAME’)
定义 二维卷积(x,W)
返回值 二维卷积函数(x,W,步长=,padding=)

定义池化层——
def max_poo_2x2(x):
return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1])

保存文件——
saver = tf.train.Saver()
save_path = saver.save()

提取文件——
saver.restore

确定RNN参数——
lr = 学习率=
training_iters = 训练次数上限=
batch_size = 样本数=
n_inputs = 输入值=
n_steps = 时间步骤=
n_hidden_units = 隐藏层神经元个数=
n_classes = 输出分类数=

建立lstm基本单元——
lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)

cell的计算——
outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=init_state, time_major=False)

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值