简单说分四步
01准备数据
02搭建网络
03优化训练参数————(训练部分 + 测试部分)循环
04作图——loss,acc
import tensorflow as tf
import numpy as np
from sklearn import datasets
from matplotlib import pyplot as plt
#01准备数据
x_data=datasets.load_iris().data
y_data=datasets.load_iris().target
#数据集乱序
np.random.seed(116)
np.random.shuffle(x_data)
np.random.seed(116)
np.random.shuffle(y_data)
tf.random.set_seed(116)
#划分训练集(前120个数据)和测试集(后30个数据)
x_train=x_data[:-30]
y_train=y_data[:-30]
x_test=x_data[-30:]
y_test=y_data[-30:]
#统一数据类型为float32,以免后面矩阵相乘时因为数据类型不一致而报错
x_train=tf.cast(x_train,tf.float32)
x_test=tf.cast(x_test,tf.float32)
#数据配对,使用tensorflow数据切片
#使得输入数据(特征)和标签一一配对,训练集120对数据,测试集30对数据
#并分组打包,每32对数据打包为一个batch,方便后面模型训练
#所以训练集包含4个batch,测试集包含1个batch
train_db= tf.data.Dataset.from_tensor_slices((x_train,y_train)).batch(32)
test_db= tf.data.Dataset.from_tensor_slices((x_test,y_test)).batch(32)
#02 搭建网络
#定义网络的初始参数
#随机生成符合[截断式正太分布]的初始参数 w1[4*3] 和 b1[3]
#参数标要记为可训练Variable,而不是常量constant
#标准差0.1,随机数种子seed=1
#(truncated——截断式,意思就是生成的参数,在均值的上下两个标准差范围内,是为了让生成的随机数不要相差太多)
w1=tf.Variable(tf.random.truncated_normal([4,3],stddev=0.1,seed=1))
b1=tf.Variable(tf.random.truncated_normal([3],stddev=0.1