Neural Networks and Deep Learning 学习笔记(十)

MIT那本书不适合短平快的学习方式,转战Udacity里基于Tensorflow的一个视频教学

1. softmax的优势

格式为

exijexj

相比较
xijxj

假设原数据为

[3.0,1.0,0.2]

那么经过softmax运算,则得到
[0.8360188,0.11314284,0.05083836]

经过普通运算得到
[0.714285,0.238095,0.047619]

看起来差不太多。

但是原数据 ×10 后,差别就显示出来了。

经过普通运算的原数据是没有变化的。

[0.714285,0.238095,0.047619]

经过softmax运算前将原数据乘以10以后,softmax运算的结果为

[9.99999998e01,2.06115362e09,6.91440009e13]

显而易见,最大的可能得到的结果几乎为1,其它可能得到的结果几乎为0,换句话说不是0就是1。

经过softmax运算前将原数据除以10以后,softmax运算的结果为

[0.38842275,0.31801365,0.2935636]

同样显而易见,他们几乎相等,均匀分布。

一个分类器开始的时候,需要对分类结果不要抱有太大信心,而在结束的时候要对分类结果抱有很大的信心,显然softmax可以做到这一点。

2. One-hot encoding

就是说
[1,0,0,0,0] 对应a
[0,1,0,0,0] 对应b
[0,0,0,0,1] 对应c
[0,0,1,0,0] 对应d
[0,0,0,1,0] 对应e
注意后三个没有写错。
每一排是结果向量,显然形成了一一对应关系。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值