笔记:softmax分类

本文介绍了softmax函数在多分类问题中的应用,特别是在神经网络中如何将其输出转化为概率分布。通过TensorFlow库,详细展示了如何处理Fashion MNIST数据集,包括数据集介绍、数据预处理、模型编译、训练及评估。实验结果显示,模型在训练和测试集上的准确率分别达到89%和87%。
摘要由CSDN通过智能技术生成

softmax分类

对数几率回归解决的是二分类问题,对于多个选项 的问题,我们可以使用softmax函数。它是对数几率回归在 N个可能不同的值上的推广。

神经网络的原始输出不是一个概率值,实质上只是输入的数值做了复杂的加权和与非线性处理之后的一个值而已,那么如何将这个输出变为概率分布?这就是Softmax层的作用。

Softmax要求每个样本必须属于某个类别,且所有可能的样本均被覆盖,Softmax个样本分量之和为1,当只有两个类别时,与对数几率回归完全相同.

在这里插入图片描述

在tf.keras里,对于对分类问题我们使用:

  • categorical_crossentropy(独热编码)
  • sparse_categorical_crossentropy(数字编码类别)

来计算softmax交叉熵

数据集介绍:

将使用Fashion MNIST的作用是成为经典MINIST数据集的简易替换,MNIST数据集包含手写数字(0、1、2等)的图像,这些图像的格式与本节课中使用的服饰图像的格式相同。

Fashion MNIST比常规MINIST手写数据集更具挑战性,这两个数据都相对较小,用于验证某个算法是否如期正常运行。它们都是测试和调试代码的良好起点。

Fashion MNIST数据集包含70000张灰度图像,涵盖10个类别。

在这里插入图片描述

我们将用60000张图像训练网络,并使用10000张图像评估经过学习的网络分类图像的准确率。可以从Tensorflow直接访问Fashion MNIST,只需要导入和加载数据即可。

代码实现

import tensorflow as tf#读取包
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

加载下载好的数据:

(train_image,train_lable),(test_image,test_lable) = tf.keras.datasets.fashion_mnist.load_data()
train_image.shape,train_lable.shape#查看train数据的形状
Out[]:
((60000, 28, 28), (60000,))

test_image.shape,test_lable.shape#查看test数据的形状
Out[]:
((10000, 28, 28), (10000,))
plt.imshow(train_image[0])#查看第一张图片

在这里插入图片描述

train_lable#查看lable分类,用数字代表lable
Out[]:
array([9, 0, 0, ..., 3, 0, 5], dtype=uint8)
np.max(train_image[0])#查看train_image数据的最大值
Out[]:
255
train_image = train_image/255#将数据归一化
test_image = test_image/255

数据归一化:使得train数据集与test数据集将在0-1变化

model = tf.keras.Sequential()#建立模型
model.add(tf.keras.layers.Flatten(input_shape=(
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值