三张图宏观理解深度学习的工作原理

       神经网络中每层对输入数据所做的具体操作保存在该层的权重(weight中,其本质是一 串数字。用术语来说,每层实现的变换由其权重来参数化parameterize。权重有时也被称为该层的参数parameter)。在这种语境下,学习的意思是为神经网络的所有层找到一组权重值,使得该网络能够将每个示例输入与其目标正确地一一对应。但重点来了:一个深度神 经网络可能包含数千万个参数。找到所有参数的正确取值可能是一项非常艰巨的任务,特别是 考虑到修改某个参数值将会影响其他所有参数的行为。

 

 

        想要控制一件事物,首先需要能够观察它。想要控制神经网络的输出,就需要能够衡量该输出与预期值之间的距离。这是神经网络损失函数loss function的任务,该函数也叫目标函数(objective function)。损失函数的输入是网络预测值与真实目标值(即你希望网络输出的结果),然后计算一个距离值,衡量该网络在这个示例上的效果好坏。

 

 

        深度学习的基本技巧是利用这个距离值作为反馈信号来对权重值进行微调,以降低当前示例对应的损失值。这种调节由优化器optimizer来完成,它实现了反向传播(backpropagation)算法,这是深度学习的核心算法。

 

        一开始对神经网络的权重随机赋值,因此网络只是实现了一系列随机变换。其输出结果自1然也和理想值相去甚远,相应地,损失值也很高。但随着网络处理的示例越来越多,权重值也在向正确的方向逐步微调损失值也逐渐降低。这就是训练循环training loop,将这种循环重复足够多的次数(通常对数千个示例进行数十次迭代),得到的权重值可以使损失函数最小。具 有最小损失的网络,其输出值与目标值尽可能地接近,这就是训练好的网络。再次强调,这是 一个简单的机制,一旦具有足够大的规模,将会产生魔法般的效果。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值