第一个基于 Tensorflow 的简单回归例子

学习自 YouTube 上莫烦的 TensorFlow 的教学视频

# -*- coding: utf-8 -*-
"""
Created on Sun Mar 18 22:53:41 2018

@author: Administrator
"""

import tensorflow as tf
import numpy as np 
import matplotlib.pyplot as plt

#定义隐藏层
def add_layer(inputs,in_size,out_size,activation_function=None):
    W = tf.Variable(tf.random_normal([in_size,out_size]))
    b = tf.Variable(tf.zeros([1,out_size]) + 0.1)
    if activation_function is None:
        ouput = tf.matmul(inputs,W) + b
    else:
        ouput = activation_function(tf.matmul(inputs,W) + b)
    return ouput

#定义数据    
x_data = np.linspace(-1,1,300)[:,np.newaxis]
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data) - 0.5 + noise

#tf 形式数据
xs = tf.placeholder(np.float32,[None,1])
ys = tf.placeholder(np.float32,[None,1])

#构建结构
l1 = add_layer(xs,1,10,tf.nn.relu)
prediction = add_layer(l1,10,1,None)

#损失函数和优化器
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))
train = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#初始化
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)

#画图
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data)
plt.ion()

for step in range(1000):
    sess.run(train,feed_dict={xs:x_data,ys:y_data})
    if step % 50 == 0:
        #print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
        try:
            ax.lines.remove(lines[0])
        except Exception:
            pass
        prediction_value = sess.run(prediction,feed_dict={xs:x_data})
        lines = ax.plot(x_data,prediction_value,'r-',lw=5)

        plt.pause(0.1)


运行结果:
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个简单例子,使用TensorFlow 2.5.0构建神经网络实现回归。 首先,我们需要导入所需的库和数据集: ```python import tensorflow as tf from tensorflow import keras import pandas as pd # 导入数据集 data = pd.read_csv('data.csv') X = data.iloc[:, :-1].values y = data.iloc[:, -1].values.reshape(-1, 1) ``` 然后,我们需要对数据进行预处理,将其标准化: ```python # 标准化数据 from sklearn.preprocessing import StandardScaler scaler = StandardScaler() X = scaler.fit_transform(X) y = scaler.fit_transform(y) ``` 接下来,我们可以构建神经网络模型: ```python model = keras.Sequential([ keras.layers.Dense(32, activation='relu', input_shape=[X.shape[1]]), keras.layers.Dense(16, activation='relu'), keras.layers.Dense(1) ]) ``` 我们使用了一个具有两个隐藏层的神经网络,其中第一个隐藏层具有32个神经元,第二个隐藏层具有16个神经元。最后一层是输出层,具有一个神经元。 然后,我们可以编译模型并训练: ```python model.compile(optimizer='adam', loss='mse') history = model.fit(X, y, epochs=100, validation_split=0.2) ``` 在此示例中,我们使用均方误差作为损失函数,并使用Adam优化器进行优化。我们将数据集分割为80%的训练集和20%的验证集,并训练模型100个epochs。 最后,我们可以使用模型进行预测: ```python y_pred = model.predict(X) # 反标准化数据 y_pred = scaler.inverse_transform(y_pred) y = scaler.inverse_transform(y) # 计算均方根误差 from sklearn.metrics import mean_squared_error rmse = mean_squared_error(y, y_pred, squared=False) print('RMSE:', rmse) ``` 我们使用反标准化将预测值和实际值转换回原始数据范围,并计算均方根误差。 完整的代码如下所示: ```python import tensorflow as tf from tensorflow import keras import pandas as pd from sklearn.preprocessing import StandardScaler from sklearn.metrics import mean_squared_error # 导入数据集 data = pd.read_csv('data.csv') X = data.iloc[:, :-1].values y = data.iloc[:, -1].values.reshape(-1, 1) # 标准化数据 scaler = StandardScaler() X = scaler.fit_transform(X) y = scaler.fit_transform(y) # 构建神经网络模型 model = keras.Sequential([ keras.layers.Dense(32, activation='relu', input_shape=[X.shape[1]]), keras.layers.Dense(16, activation='relu'), keras.layers.Dense(1) ]) # 编译模型并训练 model.compile(optimizer='adam', loss='mse') history = model.fit(X, y, epochs=100, validation_split=0.2) # 使用模型进行预测 y_pred = model.predict(X) # 反标准化数据 y_pred = scaler.inverse_transform(y_pred) y = scaler.inverse_transform(y) # 计算均方根误差 rmse = mean_squared_error(y, y_pred, squared=False) print('RMSE:', rmse) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值