【神经网络】多层感知机

本文介绍了多层感知机(MLP)的概念,强调了隐藏层和激活函数在深度学习中的重要性。隐藏层位于输入层和输出层之间,而激活函数如ReLU、sigmoid和tanh提供了网络的非线性变换能力。ReLU函数因简单和高效而广泛使用,而sigmoid和tanh则常用于早期神经网络。MLP通过多个全连接层和激活函数的组合,实现复杂的模型表达。
摘要由CSDN通过智能技术生成

多层感知机

我们已经介绍了包括线性回归softmax回归在内的单层神经网络。然而深度学习主要关注多层模型。在本节中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。

隐藏层

多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。隐藏层位于输入层和输出层之间。展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。

在这里插入图片描述

带有隐藏层的多层感知机

在图所示的多层感知机中,输入和输出个数分别为4和3,中间的隐藏层中包含了5个隐藏单元(hidden unit)。由于输入层不涉及计算,图中的多层感知机的层数为2。由图可见,隐藏层中的神经元和输入层中各个输入

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

chaser&upper

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值