2022/1/8机器学习之神经网络

神经网络

回顾:单层神经网络即自适应神经元算法(Adaline)

用分类的自适应算法,并采用梯度下降算法来学习模型的权重系数,用一下的规则在训练集的每个迭代更新权重向量w:

在这里插入图片描述
计算基于整个训练集的梯度,并通过梯度相反方向退一步更新权重。优化定义为误差平方和(SSE)的目标函数J(w)以找到该模型的最优权重。此外把梯度乘以学习率,必须谨慎选择该参数以平衡学习速度与全局最小成本函数过度所带来的风险。在梯度下降优化中,每次迭代都同时更新所有权重。为权重向量w的每个权重定义偏导数。
在这里插入图片描述
激活函数:
在这里插入图片描述
在这里插入图片描述
阈值函数:
在这里插入图片描述

虽然Adaline由输入层和输出层两层组成,但它被 称为单层网络,因为在输入层和输出层之间存在着单链接

正题:多层神经网络也叫作多层感知机

定义:将多个单神经元连接到多层前馈神经网络

层次:三层结构(有一个及其以上的隐藏层我们就叫做深度人工神经网络)

输入层 隐藏层 输出层

在这里插入图片描述

超参数:神经网络的层数,神经元个数,迭代次数,学习率,激活函数

MLP的学习过程:

1.从输入层开始,把训练数据的模型通过网络传播输出
2.基于网络传播,用稍后将描述的代价函数计算出想要的最小化错误
3.反向传播误差,匹配网络中相应的权重结果并更新模型
4.用正向传播计算网络输出,并应用阈值函数以前描述的独热表示方式获得预测结果的分类标签

正向传播算法步骤:

1.最开始,我们会初始化一组 的取值,并且选定一个激活函数,为了后面的方便,我们假设选定sigmoid函数作为激活函数。
2.有了联结权重 和激活函数 之后,就可以由前往后计算,依次算出所有的 值,最终算出输出层的 值。这就是前向传播算法。

在这里插入图片描述

公式解释:z1(h)为净输入,φ()为激活函数,要以基于梯度的方法学习与神经元连接的权重,函数必须可微。

常见的激活函数

1.Sigmoid函数:

在这里插入图片描述

2.tanh函数:

在这里插入图片描述

在这里插入图片描述

3.Relu函数

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

3.Leaky ReLU函数

在这里插入图片描述

在这里插入图片描述

前馈:每一层都是不循环的下一层的输入。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值