Robert 设计日记三----神经网络学习体会1

前面已经说了,将开始设计机器人视觉功能,目的要使用机器人视觉来辨别用户,通过人脸识别进行导航跟踪,当然首先要识别人脸, 和相关物体,便于机器人跟踪过程的视觉应用。
通过一阶段学习,对激活函数,sigmoid,Relu,Softmax等都有了初步认识,下面再进一步通过后续学习了解深化这些认识。后面我将对
1、神经网络学习;
2、误差反向传播;
3、卷积神经网络
三方面进行学习。中间可能穿插手写数字的实例。我会记录难点的自我认识,和提出疑问,看有大牛解释。
先学习“1神经网络学习”
1.1 损失函数
一个体现网络性能的函数,越大,该识别网络性能越差,反之,越好。
—1.1.1 一个好抽象的损失函数“交叉熵误差”和简单明了的 ”均方差“
许多人看到这个熵就头大,学生时没接触的更闷。啥鬼玩意,还来个交叉熵。我一般不好理解时,就会找英文的原版,个人认为许多英文手册翻译后,由于翻译人本身的技术,英语和语文水准不够,大多时候,原版英文能帮你解开迷雾。好,这个看似高大上万人不懂的“交叉熵误差”到底是个啥鬼玩意,??查下看出“交叉熵误差”英文为“ cross entropy error", 单词“entropy" 本意似乎使得我们豁然开朗:
entropy --不匹配,混乱程度或消耗在无用功上的能量的指标
error —两个物理量或计算量的误差
cross — 这里理解成乘法符号 ”X“如何
【这个熵从英文原意上的理解 就应该越小越好:)】
公式 E=- [- Tk * LOG Yk (原谅此处符号怪异,真确公式大致看官自己查一下)。公式中两个物理量分别为 监督数据输出Tk和神经网络数据输出Yk。 由于监督数据Tk 采用ONE-HOT 表示,即正确标签为1,其余为0。 则通过CROSS 的乘积,一旦差的神经网络输出错误的位置,即将错误位置输出为大概率值,则都被监督数据的0抵消。这样真确网络输出通过运行交叉熵误差函数的值就很小,错误网络通过运行交叉熵误差函数输出就大。由于损失函数的输出值与神经网络性能成反比。则毫无疑问,我们找到了好的神经网络。那么问题来了, 我们知道,还有个损失函数 ”均方差(mean squared error)“,我们为何不用???

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值