机器学习5

本文详细介绍了神经网络的学习过程,包括代价函数的构建,特别是在多输出情况下的复杂性。接着,解释了反向传播算法在求解神经网络优化问题中的作用。此外,讨论了前向传播、误差计算以及梯度检验的重要性,强调了随机初始化参数以打破对称性的必要性。最后,简述了神经网络在自动驾驶等领域的应用。
摘要由CSDN通过智能技术生成

Neural Networks: Learning

Cost Function

在这里插入图片描述
逻辑回归问题中我们的代价函数为:
在这里插入图片描述
在逻辑回归中,我们只有一个输出变量,又称标量(scalar) , 也只有一个因变量 y,但是在神经网络中,我们可以有很多输出变量,我们的 hθ(x)是一个维度为 K 的向量,并且我们训练集中的因变量也是同样维度的一个向量,因此我们的代价函数会比逻辑回归更加复杂一些。
在这里插入图片描述

  • 这个看起来复杂很多的代价函数背后的思想还是一样的,我们希望通过代价函数来观察算法预测的结果与真实情况的误差有多大,唯一不同的是,对于每一行特征,我们都会给出K 个预测,基本上我们可以利用循环,对每一行特征都预测 K 个不同结果,然后在利用循环在 K 个预测中选择可能性最高的一个,将其与 y 中的实际数据进行比较。

  • 正则化的那一项只是排除了每一层 θ0 后,每一层的 θ 矩阵的和。最里层的循环 j 循环所有的行(由 sl +1 层的激活单元数决定),循环 i 则循环所有的列,由该层(sl 层)的激活单元数所决定。 即: hθ(x)与真实值之间的距离为每个样本-每个类输出的加和,对参数进行regularization 的 bias 项处理所有参数的平方和。
    在这里插入图片描述

  • 由于计算复杂,实际上神经网络的代价函数 是一个非凸(non-convex)函数。


Backpropagation Algorithm

类似于回归模型中的梯度下降算法,为了求解神经网络最优化问题,我们也要计算在这里插入图片描述
如此才能最小化代价函数。<

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值