TensorFlow实现Softmax

我们先来理解理解Softmax:任意事件发生的概率都在 0 和 1 之间,且总有某件发生 概率的和为 )。如果将分类问题中“ 个样例属于某个类别”看成个概率件,

那么训练数据的正确答案就符合个概率分布。因为事件“个样例属于不正确的类别”的概率为0,
而“ 个样例属于正确的类别”的概率为 1。如何将神经网络前向传播得到的结果也变成
概率分布呢? Softmax 回归就是个非常常用的方法
Softmax 回归本身可以作为 个学习算法来优化分类结果,但在TensorFlow中, softmax
回归的参数被去掉了,它只是层额外的处理层,将神经网络的输出变成个概率分布 。 总结:softmax就是把输出结果变成概率分布。

 

TensorFlow实现Softmax:result = tf.nn.softmax( tf.matmul(x,w)+b ),其中 tf.matmul(x,w)+b为神经网络的输出结果。

转载于:https://www.cnblogs.com/Mydream6/p/11330909.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值