吴恩达-深度学习整理

本文详细介绍了深度学习的基础,包括神经网络结构、激活函数、梯度下降及其优化算法,如动量梯度下降。此外,讨论了深层神经网络中的正则化方法,如dropout和L1/L2正则化,以及如何处理梯度消失和爆炸问题。还涵盖了批归一化的作用和优化超参数的重要性。
摘要由CSDN通过智能技术生成

神经网络基础


浅层神经网络

浅层网络示意图

第一层输入特征叫做输入层,中间成为隐藏层,最右边一个节点的成为输出层,负责产生输出值。通过矩阵相乘实现从左到右的前向计算:
这里写图片描述

激活函数

  1. sigmoid函数:其公式为:
    这里写图片描述 导数:这里写图片描述
    特点是其值域为(0,1),可以作为二分类最后一层的输出
  2. tanh函数:其公式为:
    这里写图片描述导数:这里写图片描述
    其值域为(-1,+1),均值接近0均值,效果要优于sigmoid,但是缺点便是当z特别大或者特别小的时候,导数的梯度和斜率就会接近0,降低梯度下降的速度。
  3. Relu函数:其公式为:
    这里写图片描述导数:这里写图片描述
    修正线性单元,当z大于0时斜率为固定值1,当z=0时,z可以取[0,1]的任意值,当z小于0时,导数为0。不会产生梯度消失的情况,但是进入负半区的时候则会产生死单元。由于偏置量b的存在
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值