![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
风1995
共同交流,共同学习!
展开
-
激励函数, activation function
神经网络中达成我们描述非线性的任务了. 我们可以把整个网络简化成这样一个式子. Y = Wx, W 就是我们要求的参数, y 是预测值, x 是输入值. 用这个式子, 我们很容易就能描述刚刚的那个线性问题, 因为 W 求出来可以是一个固定的数. 不过这似乎并不能让这条直线变得扭起来 , 激励函数见状, 拔刀相助, 站出来说道: “让我来掰弯它!”.这里的 AF 就是指的激励函数. 激励函数拿出自...原创 2019-11-06 16:34:27 · 118 阅读 · 0 评论 -
tf.Variable
在 Tensorflow 中,定义了某字符串是变量,它才是变量,这一点是与 Python 所不同的。定义语法: state = tf.Variable()import tensorflow as tfimport numpy as npstate = tf.Variable(1)# 定义常量 oneone = tf.constant(1)# 定义加法步骤 (注: 此步并没有直接计算...原创 2019-11-06 13:41:39 · 116 阅读 · 0 评论 -
Session 会话控制
Tensorflow 中的 Session, Session 是 Tensorflow 为了控制,和输出文件的执行的语句. 运行 session.run() 可以获得你要得知的运算结果, 或者是你所要运算的部分.首先,我们这次需要加载 Tensorflow ,然后建立两个 matrix ,输出两个 matrix 矩阵相乘的结果。tf.matmul还是Tensorflow中矩阵乘法np.dot...原创 2019-11-06 13:24:21 · 106 阅读 · 0 评论 -
tensorflow——optimizer.minimize()、optimizer.compute_gradients()、optimizer.apply_gradients()
优化函数 损失函数loss = ...optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)train_op =optimizer.minimize(loss,global_step=global_step)其中minimize()包含两个步骤:1.计算loss对指定val_list的梯度(导数),返回元组列表...原创 2019-11-06 12:48:12 · 1022 阅读 · 0 评论 -
tf.random_uniform
import tensorflow as tfres = tf.random_uniform((4, 4), -1, 1)with tf.Session() as sess: print(sess.run(res))#结果为:[[ 0.61043835 -0.35983467 -0.02590227 0.6653023 ] [ 0.4215083 0.6378925 -0...原创 2019-11-06 12:01:59 · 95 阅读 · 0 评论