placeholder——占位(2.0以上版本需要加这行)
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.softmax函数——使各项相加之和为1
tf.sigmoid函数——二分类
tf.reduce函数——把作为它参数的向量或矩阵中方所有维度值相加求和
random函数——随机生成在[0, 1)之间的数
#产生新的随机数种子
random.seed()
#10倍即产生[0, 10)范围的数,int操作取整,41+60就是取大于[60,101)的整数
print(int(random.random() * 10))
print(int(random.random() * 41 + 60))
np.full函数生成一个形态为(a, b)的数组,其中fill_value=c是用c先预填充这个数组。
例子:
编程解决下述非线性问题:
输入数据:[1, 1, 1],输出目标值:2
输入数据:[1, 0, 1],输出目标值:1
输入数据:[1, 2, 3],输出目标值:3
代码如下:
import numpy as np
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
xData = np.array([[1, 1, 1],
[1, 0, 1],
[1, 2, 3]])
yTrainData = np.array([2, 1, 3])
x = tf.placeholder(shape=[3], dtype=tf.float32)
yTrain = tf.placeholder(dtype=tf.float32)
w = tf.Variable(tf.zeros([3]), dtype=tf.float32)
b = tf.Variable(1, dtype=tf.float32)
n1 = x * w
n2 = tf.reduce_sum(n1) - b
y = n2
loss = tf.abs(y - yTrain)
optimizer = tf.train.RMSPropOptimizer(0.01)
train = optimizer.minimize(loss)
sess = tf.Session()
sess.run(tf.global_variables_initializer())
for i in range(1000):
for j in range(3):
result = sess.run([train, x, yTrain, w, b, n2, loss], feed_dict={x: xData[j], yTrain: yTrainData[j]})
print(result)
运行结果:
实际上这个问题是个非线性方程组问题,对初学者来说,被书里面二分类非线性问题迷惑了就容易一头扎错了方向。