TensorFlow基础系列(softmax回归)

本文介绍了softmax作为多分类模型在神经网络中的应用,详细阐述了softmax的原理和在TensorFlow中的实现。通过讲解,强调了softmax在深度学习,尤其是分类任务中的重要性。
摘要由CSDN通过智能技术生成

###开篇
补上之前缺失的TensorFlow基础,这两天要放五一假了,又可以把缺上的东西拿来补一补,错失了很多大厂的面试机会,也深感自己基础的不扎实。之前的逻辑回归,我们讲的是二分类问题,但是现实中,我们要做的往往是多分类。所以训练一个多分类的模型是十分必要的,今天我们就来说说神经网络中最常见的多分类模型,softmax。
###softmax
和逻辑回归的模型函数sigmoid一样,softmax也是神经网络中的一种激活函数,但它通常是放在最后一层的,也就是我们的输出层,它会输出每一个类别的概率,而概率最大的那个类别就是我们需要的结果,不同于大部分的激活函数,softmax会同时作用在它那一层的所有神经元来产生输出。下面让我们看具体的图示和公式形式。

在TensorFlow中整个softmax函数可以写成这样

hypothesis = tf.nn.softmax(tf.matmul(X,W)+b)

依旧是我们的机器学习三要素,模型函数、损失函数、优化算法,softmax的模型函数和逻辑回归的模型函数差不多,都是可以由生成模型推导过来的,所以它们的输出结果以概率的形式呈现不足为奇。同时softmax的损失函数也是和逻辑回归的损失函数是类似的。当softmax只处理二分类问题的时候,它的数学表现形式是和逻辑回归一致的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值