神经网络介绍

本文介绍了神经网络的基础知识,包括前馈神经网络、BP神经网络及其训练过程,强调了梯度消失问题和激活函数的选择。同时,讨论了损失函数、学习率对模型训练的影响,以及防止过拟合的策略。
摘要由CSDN通过智能技术生成

● 传统神经网络结构比较简单,训练时随机初始化输入参数,并开启循环计算输出结果,与实际结果进行比较从而得到损失函数,并更新变量使损失函数结果值极小,当达到误差阈值时即可停止循环。

● 神经网络的训练目的是希望能够学习到一个模型,实现输出一个期望的目标值。学习的方式是在外界输入样本的刺激下不断改变网络的连接权值。

● 传统神经网络主要分为三类:前馈型神经网络、反馈型神经网络、自组织神经网络。这几类有不同的学习训练算法,可以归结为有监督学习算法和无监督学习算法。

● 前馈神经网络(20世纪80年代)是一种单向多层的网络结构,即信息是输入层开始,逐层向一个方向传递,一直到输出层结束。不调整权重参数。

● BP神经网络也是前馈神经网络,只是它的权重参数由反向传播的算法调整的。BP神经网络结构包括输入层、隐层、输出层,利用激活函数来实现从输入到输出的任意非线性映射,从而模拟各层神经元之间的交互。激活函数必须满足处处可导的条件。
BP神经网络训练过程的基本步骤:
——初始化网络权重和神经元的阈值,一般通过随机的方式进行初始化
——前向传播:计算隐层神经元和输出层神经元的输出
——后向传播:根据目标函数公式修正权值Wij
训练的目的:优化权重和偏差,使损失值最小。
批量训练:所以样本训练完之后,根据损失函数迭代调整权重和偏差。
随机梯度下降:随机选择部分样本,每输入一个样本,则调整一次权重和偏差。

● “梯度消失”问题:在优化调整权重参数时,越靠近输入层,权重越小,通常都是接近于0,所以权重基本上修改的很少或者没有修改,则导致学习较差或停止。(要

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值