Softmax回归练习

本文介绍了Softmax回归的实现步骤,包括算法公式、损失函数、优化器选择和准确率评估。通过具体流程展示了如何训练和测试模型。
摘要由CSDN通过智能技术生成

整个流程包括以下四部分:
1、定义算法公式,也就是神经网络的forward时的计算 y=softmax(W.TX +b)
2、定义损失函数(H(y)=-∑y_log(y)),并制定优化器(梯度下降)
3、迭代的对数据进行训练
4、在测试集或验证集上对准确率进行评测

import tensorflow as tf
#导入MNIST模块
from tensorflow.examples.tutorials.mnist import input_data
#读取MNIST数据
mnist = input_data.read_data_sets("G:/TensorFlow/MNIST_data/",one_hot=True)
# x 是一个占位符,代表待识别的图片/tensor
x = tf.placeholder(tf.float32,[None,784])
# w 是softmax模型的参数,将784维的输入转换为10维,模型的参数用tf.Variable表示
w = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
#y表示输出
y = tf.nn.softmax(tf.matmul(x,w) + b)
#y_表示实际标签
y_ = tf.placeholder(tf.float32,[None,10])

#根据y和y_构造交叉熵损失
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y)))

#利用梯度下降方法针对模型w和b进行优化,0.01代表学习速率
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

#创建session,只有在session中才能运行优化步骤train_step
se
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值