alexnet的loss在一个epoch内没有稳定下降_损失函数、梯度下降,深度学习的基础全打通!...

点击上方蓝字,关注并星标,和我一起学技术。

3b1b67d56692c38ed9e262eea93ad6e5.png

大家好,我们今天来继续聊聊深度学习

在上一篇文章当中我们简单介绍了感知机和神经网络的一个关系,对神经网络有了一个粗浅的理解。其实神经网络并没有大家想的那么难,每个神经元之间的数据传输以及计算方式都是确定的。仅仅知道神经网络的结构还是不够的,更重要的是这个网络它究竟是如何学习的,这才是我们要了解的重点。

今天本文将会继续介绍神经网络的一些基础内容。

损失函数

在早年的时候,深度学习这个概念并没有从机器学习当中单独拆分出来,神经网络也是机器学习模型的一种,也是一个部分。只是后来由于神经网络在很多方面的表现非常出色,远远胜过了传统模型。尤其是AlphaGo战胜了李世石之后,引来了外界大量的关注,从而得到了迅猛的发展。

既然神经网络也是机器学习的一个部分,那么神经网络模型同样需要损失函数。损失函数的作用是量化模型当前的性能,由于是程序执行,我们需要有一个明确的指标告诉我们模

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值