深度学习如何改进(二)


我们在上一篇文章中给大家介绍了关于深度学习中的前馈神经网络的相关知识,而前馈神经网络是神经网络中最朴素的一个内容,这是因为前馈神经网络的知识是比较简单的。而我们在上一篇文章中给大家提到了一个方法,那就是梯度下降法,在这篇文章中我们就给大家介绍一下这些知识。

首先,梯度下降法就是求出所需参数的极值,使损失最小化。当然,在求取参数的过程中,无论是取任何值,难以避免产生的是一个误差值,在训练过程中,工程师们会引入一个损失函数Loss,而上述的梯度下降求取参数最优解的同时便是求出最小损失函数的过程。

而在训练的过程中,有两个主要环节,一个是训练集训练,另一个是验证集测试。从名字我们可以看出来,训练集训练是搭建最合适模型所需,验证集测试是检验所搭建模型是否合适使用。而在检验的过程中,可能会出现过拟合问题,深度学习中高维的分类器,可能使模型过度拟合,降低模型的准确性——验证集验证过程中会基于Loss损失函数和准确率来判断是否在较优的准确度。当然,模型搭建完以后,并不是万事大吉了,在搭建模型完成后,还有第三步,就是用测试集,检验搭建模型的效用。

一个基础神经网络的流程框架会在训练处理中引入的比较核心的思维。在学习深度学习的过程中,我们会很容易发现,基于上述提到的最基础的神经网络结构,开发者们是一一针对工程实践时,遇到的瓶颈,找到相应的解决办法。而这些办法,慢慢建立成为新的落地模型。所以,我们是可以基于最简单网络模型,再进一步了解这些更新的神经网络模型的特性和属性的,而这些模型,既可以解决最基本神经网络无法突破的部分问题,同时,也面临着其他具体的局限。那么局限是什么呢?在卷积神经网络中比较明显,在和之前的相比,神经元可响应一部分覆盖范围的周围单元、通关权值共享的方式使得下一层工作量大大较少。

从这篇文章中我们不难发现梯度下降法是一个十分重要的内容,而梯度下降法在神经网络和机器学习中都是十分常见的,在后面的文章中我们继续为大家介绍一下这些内容。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值