tensorflow 实现softmax Regression分类器

softmax 是将分类函数`y = w * x`转化为概率分布的函数。下面是以对tensorflow mnist手写数字图像识别的0-9进行训练识别为例子。为了简单,直接上截图得了:

 

 

 

 

 

 

 

 

 

 

 

下面是tensorflow的代码。利用` with tf.name_scope`一个节点借点的写,有利于网络模型的可视化,更好的维护和管理。

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
import argparse
import sys
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'


# 在main函数中组织计算整个计算图 运行会话
def main():
    print("******开始设计计算图*******")
    with tf.Graph().as_default():
        # input: 定义输入节点
        with tf.name_scope('Input'):
            # 计算图输入占位符
            X = tf.placeholder(tf.float32, shape=[None, 784], name='X')
            Y_true = tf.placeholder(tf.float32, shape=[None, 10], name='Y_true')

        # interence 前向预测,创建一个线性模型: y = x*w + b
        with tf.name_scope('Interence'):
            W = tf.Variable(tf.zeros([784, 10]), name='Weight')
            b = tf.Variable(tf.zeros([10]))
            logits = tf.add(tf.matmul(X, W), b)
        # softmax 把Y_pred变成概率分布
        with tf.name_scope('SoftMax'):
            Y_pred = tf.nn.softmax(logits=logits)
        # 定义损失节点
        with tf.name_scope('Loss'):
            Loss = tf.reduce_mean(
                -tf.reduce_sum(Y_true * tf.log(Y_pred), axis=1)
            )
        # Train 定义训练节点
        with tf.name_scope('Train'):
            # Optimizer :创建梯度下降优化器
            Optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)
            # Train: 定义训练节点将梯度下降法应用于Loss
            TrainStep = Optimizer.minimize(Loss)

        # Evaluate : 评估节点
        with tf.name_scope('Evaluate'):
            correct_prediction = tf.equal(tf.argmax(Y_pred, 1), tf.argmax(Y_true, 1))
            accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

        # initial: 添加所有Variable类型的变量的初始化节点
        initOp = tf.global_variables_initializer()

        print('把计算图写入事件文件,在tensorBoard里面查看')
        writer = tf.summary.FileWriter(logdir='logs/mnist_softmax', 
        graph=tf.get_default_graph())
        writer.close()

        print("******开始运行计算图*******")
        # 加载数据
        mnist = input_data.read_data_sets('/datasets', one_hot=True)

        # 声明一个交互式会话
        sess = tf.InteractiveSession()
        # 初始化所有变量,w、b
        sess.run(initOp)

        # 开始按批次训练,总共训练1000个批次,每个批次100个样本
        for step in range(2000):
            batch_xs, batch_ys = mnist.train.next_batch(100)
            # 将当前批次的样本feed给计算图中的输入占位符,启动训练节点开始训练
            _, train_loss = sess.run([TrainStep, Loss], feed_dict={X: batch_xs,
             Y_true: batch_ys})
            print('train step:', step, ',train_loss s :', train_loss)

        accuracy_score = sess.run(accuracy, feed_dict={X: mnist.test.images,
         Y_true: mnist.test.labels})
        print("准确率 : ", accuracy_score)


if __name__ == '__main__':
    main()

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,那我们就来实现一个使用softmax逻辑回归的莺尾花分类器。 首先,我们需要导入所需的库和数据集。我们将使用Python中的NumPy和Pandas库来处理数据,使用Sklearn库来调用莺尾花数据集。 ```python import numpy as np import pandas as pd from sklearn.datasets import load_iris iris = load_iris() X = iris.data y = iris.target ``` 接下来,我们需要将数据集分成训练集和测试集,以便我们可以训练模型并测试其准确性。我们将使用Sklearn库中的train_test_split函数进行此操作。 ```python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ``` 然后,我们需要对输入数据进行标准化处理,以便模型可以更好地学习和收敛。我们将使用Sklearn库中的StandardScaler函数来标准化数据。 ```python from sklearn.preprocessing import StandardScaler scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) ``` 现在,我们可以开始构建我们的模型了。我们将使用softmax逻辑回归来预测莺尾花的类别。我们将使用Sklearn库中的LogisticRegression函数来实现此操作。 ```python from sklearn.linear_model import LogisticRegression model = LogisticRegression(multi_class='multinomial', solver='lbfgs') model.fit(X_train, y_train) ``` 最后,我们可以使用测试集来评估模型的性能。 ```python from sklearn.metrics import accuracy_score y_pred = model.predict(X_test) acc = accuracy_score(y_test, y_pred) print("Accuracy:", acc) ``` 这就是完成了,我们现在可以将所有代码整合到一起。 ```python import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score iris = load_iris() X = iris.data y = iris.target X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) model = LogisticRegression(multi_class='multinomial', solver='lbfgs') model.fit(X_train, y_train) y_pred = model.predict(X_test) acc = accuracy_score(y_test, y_pred) print("Accuracy:", acc) ``` 希望这可以帮助你开始构建基于softmax逻辑回归的分类器

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值