pytorch学习笔记(一)

本文介绍了在深度学习中常用的非线性激活函数,包括Sigmod、Tanh、ReLU和Leaky ReLU。讲解了它们的作用、特点以及在实际应用中的优缺点,如Sigmod的梯度消失问题、ReLU导致的神经元死亡现象以及Leaky ReLU的解决方案。
摘要由CSDN通过智能技术生成

训练一个网络需要以下几步:

  • 构建数据集
  • 建立网络架构
  • 使用损失函数来评估模型
  • 使用优化算法优化网络架构结构
    线性层,y=wx+b
    俩层的体系结构可以看作是单独的不同的层,因此简单的叠加线性层不会帮助我们的算法学习到任何东西。为了解决这个问题,深度学习也提供了很多非线性层。
    一些比较常用的非线性函数;
  • sigmod
  • tanh
  • ReLU
  • leaky ReLU
    非线性激活是接受输入,然后应用数学变换并产生输出的函数

Sigmod

在这里插入图片描述
输出0-1之间的数,
输出0到1之间的值,之前很流行,现在逐渐不被使用了。其缺点是在趋向于无穷时,函数值变化很小,容易缺失梯度,不利于深层神经网络的反馈传

- Tanh

在这里插入图片描述
输出为-1到1,它也同样面对梯度饱和的问题当趋向于-1或者1时,他的输出是一零为中心的。

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值