详细介绍MLP的原理

什么是MLP

MLP(Multi-Layer Perceptron),即多层感知机,是一种前馈型人工神经网络。它由一个输入层、一个输出层以及至少一个隐藏层(输入层和输出层中间的层)组成。每个神经元(或称为节点)与下一层中的所有神经元相连,并且这些连接具有权重

MLP多层感知机的结构

全连接层

  • MLP 中的每一层都是一个全连接层,这意味着每一层中的每个神经元与下一层中的所有神经元相连接。
  • 每个连接都有一个权重,用于调节信号强度。

输入层

  • 输入层接收原始输入数据,并将其传递给第一个隐藏层。
  • 输入层中的神经元数量通常等于输入数据的维度。

隐藏层

  • 隐藏层位于输入层和输出层之间,用于提取输入数据中的特征。
  • 隐藏层可以有多个,每个隐藏层都是全连接层。
  • 隐藏层中的神经元数量和层数可以根据任务的复杂性和数据的特性来调整。

输出层

  • 输出层是网络的最后一层,用于生成最终的预测或分类结果。
  • 输出层也是全连接层,其中的每个神经元与前一层中的所有神经元相连接。
  • 输出层中的神经元数量取决于任务类型。对于分类任务,输出层中的神经元数量通常等于类别数量;对于回归任务,输出层可能只有一个神经元。

MLP多层感知机的优点

强大的表示能力:

  • MLP理论上能够近似任何连续函数,这得益于多层非线性变换的能力。
  • 隐藏层越多,网络越深,能够学习到的数据结构就越复杂。(但不是越深越好,过深的网络会导致过拟合、梯度消失/梯度爆炸,所以后面出现了ResNet网络,ResNet理论上可以支持非常深的网络,比如ResNet-1001,但并不是说网络越深就一定越好。ResNet通过这些跳过连接使得训练深层网络成为可能,但实际上,网络的深度仍然需要根据具体的任务和数据集来调整)

端到端学习:

  • MLP可以从原始数据直接学习到有用的特征表示,不需要像机器学习一样手动进行特征工程。
  • 网络可以通过反向传播算法自动调整权重和偏置,以最小化损失函数。

灵活的输出类型:

  • MLP可以用于多种任务,如回归、分类等。
  • 输出层的激活函数可以根据任务需求选择,如使用sigmoid函数进行二分类、softmax函数进行多分类等。

MLP多层感知机的缺点

过拟合

原因:MLP中的全连接层使得每个神经元都与前一层的所有神经元相连,这种密集的连接方式意味着网络具有很高的参数,当训练数据量相对较小时,MLP能直接记住训练数据,而不是学习到数据的内在模式,从而导致过拟合。

计算成本过大

原因:MLP 中的每一层都是一个全连接层,这意味着每一层中的每个神经元与下一层中的所有神经元相连接,全连接层中的每个连接都有一个权重,加上每个神经元还有一个偏置项,对于高维输入数据,参数的数量可能会非常庞大。

例子:假设输入图像是 100×100 的灰度图像,那么输入层就有 100×100=10,000个神经元。如果第一个隐藏层有 500 个神经元,那么仅这一层就需要 10,000×500个权重加上 500个偏置项,总共 5,000,500个参数。如此庞大的参数数量不仅增加了训练时间,还会加剧过拟合的风险。

 作者介绍

作者本人是一名人工智能炼丹师,目前在实验室主要研究的方向为生成式模型,对其它方向也略有了解,希望能够在CSDN这个平台上与同样爱好人工智能的小伙伴交流分享,一起进步。谢谢大家鸭~~~

 如果你觉得这篇文章对您有帮助,麻烦点赞、收藏或者评论一下,这是对作者工作的肯定和鼓励。  

尾言

 如果您觉得这篇文章对您有帮忙,请点赞、收藏。您的点赞是对作者工作的肯定和鼓励,这对作者来说真的非常重要。如果您对文章内容有任何疑惑和建议,欢迎在评论区里面进行评论,我将第一时间进行回复。 

  • 18
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

七七鸭灬

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值