tensorflow一元二次函数拟合

先看下要做的内容,创建一元二次函数y=x平方-0.5,其中为了更符合散点图模拟需要,在方程加噪点,以标准方差0.05行驶,如图所示

折线图

散点图

下面我们要做的,是要计算机自动拟合出该散点图的函数,画出图样,如图

下面,就通过TensorFlow来看如何做出这个样子

在TensorFlow中,首先定义

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
 
#定义隐藏层
def add_layer(inputs,in_size,out_size,activation_function=None):
    Weights=tf.Variable(tf.random_normal([in_size,out_size]))  #权值
    biases=tf.Variable(tf.zeros([1,out_size])+0.1) #偏置
    Wx_plus_b=tf.matmul(inputs,Weights)+biases  #z=wx+b
    if activation_function is None:
        outputs=Wx_plus_b
    else:
        outputs=activation_function(Wx_plus_b)
    return outputs
 
#make up some real data
x_data=np.linspace(-1,1,300)[:,np.newaxis]#加维度
noise=np.random.normal(0,0.05,x_data.shape)#加噪点,标准方差0.05
y_data=np.square(x_data)-0.5+noise    #y=square(x)-0.5+noise
 
#train_step所要输入的值
xs=tf.placeholder(tf.float32,[None,1])
ys=tf.placeholder(tf.float32,[None,1])
###建立第一,二次隐藏层layer
###add_layer(inputs,in_size,out_size,activation_function=None)
l1=add_layer(xs,1,10,activation_function=tf.nn.relu)#激励函数(activation_function)ReLU
prediction=add_layer(l1,10,1,activation_function=None)
 
#创建损失函数
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),
               reduction_indices=[1]))
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)#梯度下降优化器,减少误差,学习效率0.1
 
#important step
init=tf.initialize_all_variables()
sess=tf.Session()
sess.run(init)
 
#绘图部分
fig=plt.figure()
ax=fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data)
plt.ion()#不暂停
plt.show()
 
#学习1000步
for i in range(1000):
    sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
    if i%50==0:
        #print(sess.run(loss,feed_dict={xs:x_data,ys:y_data})) #输出误差
        try:
            ax.lines.remove(lines[0])
        except Exception:
            pass
            
        prediction_value=sess.run(prediction,feed_dict={xs:x_data})
        lines=ax.plot(x_data,prediction_value,'r',lw=5)
        plt.pause(0.1)
输出误差截图,每50次输出一次,截图如下


误差逐渐递减的截图

这样就完成了

--------------------- 
作者:QianLingjun 
来源:CSDN 
原文:https://blog.csdn.net/wsljqian/article/details/77754878 
版权声明:本文为博主原创文章,转载请附上博文链接!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值