机器学习|两个隐藏层的Softmax分类器

本文介绍了如何使用Tensorflow实现一个包含两个隐藏层的Softmax分类器。Softmax分类器用于多分类任务,通过softmax函数将神经元输出归一化为概率。文章详细讲解了Softmax函数的计算过程,并提供了具体的Tensorflow实现代码。
摘要由CSDN通过智能技术生成

Tensorflow实现两个隐藏层的Softmax分类器

Softmax分类器介绍

之前用Tensorflow实现Logistic回归模型的博客里面讲解了Logistic,最后顺便提了一下Softmax模型,并给出了一个实例。Softmax是用于分类过程,用来实现多分类的,简单来说,它把一些输出的神经元映射到(0-1)之间的实数,并且归一化保证和为1,从而使得多分类的概率之和也刚好为1。不同于Logistic回归模型,Logistic回归是用于二分类,输出结果非0即1,而Softmax是用于多分类问题,输出结果属于哪个类是以概率的形式给出来的。比如mnist数据集上面的一个例子,输入数据是8,用softmax回归模型判断可能会给出属于不同数字的概率:
在这里插入图片描述
这是一种较为通俗的解释,当然我们也可以直接从这个名字入手去解释,Softmax可以分为soft和max,max也就是最大值,假设有两个变量a,b。如果a>b,则max为a,反之为b。那么在分类问题里面,如果只有max,输出的分类结果只有a或者b,是个非黑即白的结果。但是在现实情况下,我们希望输出的是取到某个分类的概率,或者说,我们希望分值大的那一项被经常取到,而分值较小的那一项也有一定的概率偶尔被取到,所以我们就应用到了soft的概念,即最后的输出是每个分类被取到的概率。

Softmax函数

求特征: i i i代表第i类, j j j代表一张图片的第 j j j个像素。 W W W是权重, b b b是偏置。在网络的最后一层是一个线性输出层:
z j = ∑ j w j , i x i + b j z_{j}=\sum_{j}w_{j,i}x_{i}+b_{j} zj=jwj,ixi+bj
求softmax:接下来对所有特征计算softmax,首先是计算一个指数 e x p exp exp函数,然后在对其进行标准化,保证所有类别输出的概率和为1.其中判定为第 i i i类的概率可以由下面公式得到:
s o f t m a x ( x ) j = e x p ( z j ) ∑ j e x p ( x j ) softmax(x)_{j}=\frac{exp(z_{j})}{\sum_{j}exp(x_{j})} softmax(x)

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值