# 连续的值 直接输出结果 # 二分类 输出层 做一个sigmoid运算 # 多分类 输出做一个 softmax 得到概率分布 # 学习速率(超参数) learning rate(lr): 对梯度进行缩放的参数被称为学习速率 # 常见的优化函数 # 优化器 optimizer 是编译模型所需的俩个参数之一 # model.complie() 来调用 # SGD:随机梯度下降优化器 # RMSprop:较好的优化器,处理文本分类,序列预测比较好 #todo Adam :最常用的优化器 学习率建议在0.001 import tensorflow as tf import numpy as np import pandas as pd import matplotlib.pyplot as plt (train_image, train_lable), (test_image, test_label) = tf.keras.datasets.fashion_mnist.load_data() train_image = train_image / 255 test_image = test_image / 255 model = tf.keras.Sequential() model.add(tf.keras.layers.Flatten(input_shape=(28, 28))) # 变成 28*28的向量 model.add(tf.keras.layers.Dense(128, activation='relu')) model.add(tf.keras.layers.Dense(10, activation='softmax')) model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.01) , loss='sparse_categorical_crossentropy' , metrics=['acc']) model.fit(train_image,train_lable,epochs=5)
tensorflow简单小结
最新推荐文章于 2020-12-19 17:17:52 发布