花书+吴恩达深度学习(一)前馈神经网络(多层感知机 MLP)

本文介绍了前馈神经网络(多层感知机MLP)的基本概念,包括神经元的组成、梯度下降在参数优化中的作用、非线性激活函数的重要性,以及输出单元如sigmoid和softmax的使用。此外,还讨论了神经网络的宽度、深度选择及其对模型能力的影响,并概述了前向传播和反向传播的过程。
摘要由CSDN通过智能技术生成

目录

0. 前言

1. 每一个神经元的组成

2. 梯度下降改善线性参数

3. 非线性激活函数

4. 输出单元

4.1. 线性单元

4.2. sigmoid 单元

4.3. softmax 单元

5. 神经网络宽度和深度的选择

6. 前向传播和反向传播


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(一)前馈神经网络(多层感知机 MLP)

花书+吴恩达深度学习(二)非线性激活函数(ReLU, maxout, sigmoid, tanh)

花书+吴恩达深度学习(三)反向传播算法 Back Propagation

花书+吴恩达深度学习(四)多分类 softmax

0. 前言

前馈神经网络(feedforward neural network),又称作深度前馈网络(deep feedforward network)、多层感知机(multilayer perceptron,MLP)。

信息流经过 x 的函数,流经中间的计算过程,最终达到输出 y ,所以被称为是前向的。

在模型的输出和模型本身之间并没有反馈连接

神经网络可以表示成如下图所示(图源:吴恩达深度学习):

这是一个两层的神经网络,左侧是输入层,通常不算入网络层数的计算中,中间被称为隐藏层,右侧是输出层。

1. 每一个神经元的组成

每一个神经元由一个线性拟合一个非线性激活函数组成。

假设,前一层的输入为 x ,线性拟合表示为 z=w^Tx+b ,权重乘以每一个特征值,再加上一个截距。非线性激活函数表示为 a=g(z) ,a 为神经元的输出,也是传入下一层神经元的输入。

注࿱

  • 11
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值