TF回归代码
在一个渣渣师兄的推荐下我看了B站一个大佬的tf视频,感悟良多,体会到了tf的一丝魅力
因此我照着敲了第一个代码非常的快乐,我要和大家分享一下我的感悟
首先tf是在sess中运行的,其中的单元就是图,所有的东西我们都可以把他看成tensor(张量)—(嘿嘿嘿,自己也不懂)
第一步就是设立原始关系
x=np.random.rand(100)
y=0.2*x+0.1
我们用numpy随机生成100个数相当于我们的数据集
第二步初始化变量
b=tf.Variable(0.)
k=tf.Variable(0.)
dy=k*x+b
第三部就是使用优化器,对损失函数梯度下降
loss=tf.reduce_mean(tf.square(dy-y))
op=tf.train.GradientDescentOptimizer(0.1)
train=op.minimize(loss)
init =tf.global_variables_initializer()
第四部建sess运行
with tf.Session() as sess:
sess.run(init)
for i in range(1000):
sess.run(train)
if i%100==0:
print(i,sess.run([k,b]))
完整代码
import tensorflow as tf
import numpy as np
x=np.random.rand(100)
y=0.2*x+0.1
b=tf.Variable(0.)
k=tf.Variable(0.)
dy=k*x+b
loss=tf.reduce_mean(tf.square(dy-y))
op=tf.train.GradientDescentOptimizer(0.1)
train=op.minimize(loss)
init =tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
for i in range(1000):
sess.run(train)
if i%100==0:
print(i,sess.run([k,b]))
结果图
希望大家一起进步哈