#回归
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
n_observations=100
xs=np.linspace(-3,3,n_observations)
ys=np.sin(xs)+np.random.uniform(-0.5,0.5,n_observations)
plt.scatter(xs,ys)
plt.show()
X=tf.placeholder(tf.float32,name='X')
Y=tf.placeholder(tf.float32,name='Y')
# just state these two parameters
W=tf.Variable(tf.random_normal([1]),name='weight')
b=tf.Variable(tf.random_normal([1]),name='bias')
Y_pred=tf.add(tf.multiply(X,W),b,name="y_pred")
loss=tf.square(Y-Y_pred,name='loss')
learning_rate=0.01
optimizer=tf.train.ProximalGradientDescentOptimizer(learning_rate).minimize(loss)
n_samples=xs.shape[0]
线性回归(linear_regression),多项式回归(polynomial regression)(Tensorflow实现)
最新推荐文章于 2024-07-24 22:26:34 发布
本文介绍了如何使用Tensorflow实现线性回归和多项式回归,包括理论基础和代码实践,帮助理解这两种回归方法在机器学习中的应用。
摘要由CSDN通过智能技术生成