YOLOv5改进系列(二) 本文(1.万字) | 解读各种激活函数 | 更换激活函数 | SiLU | ReLU | ELU | Hardswish | Mish | Softplus | 等 |

141 篇文章 7 订阅

已下架不支持订阅


点击进入专栏:
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程


代码函数调用关系图(全网最详尽-重要)

因文档特殊,不能在博客正确显示,请移步以下链接!

图解YOLOv5_v7.0代码结构与调用关系(点击进入可以放大缩小等操作)

预览:
在这里插入图片描述


文章目录

    • 一、激活函数的简介
      • 1.1 什么是激活函数?
      • 1.2 激活函数有什么用?
    • 二、一些常见的激活函数
      • 2.1 sigmoid函数
      • 2.2 tanh / 双曲正切激活函数
      • 2.3 ReLU激活函数
      • 2.4 SiLU
      • 2.5 swish激活函数
      • 2.6 hardswish激活函数
      • 2.7 Mish激活函数
      • 2.8 ELU激活函数
      • 2.9 AconC/MetaAconC激活函数
      • 2.10 Softplus激活函数
      • 2.11 Leaky ReLU、 PReLU
      • 2.12 代码复现
        • 复现一
        • 复现二
    • 三、更换激活函数的步骤
        • 第①步 打开activations.py文件,查看已有函数
        • 第②步 在common.py中更换激活函数
    • 四、如何选择合适的激活函数


一、激活函数的简介

1.1 什么是激活函数?

在接触到深度学习(Deep Learning)后,特别是神经网络中,我们会发现在每一层的神经网络输出后都会使用一个函数(比如sigmoid,tanh,Relu等

  • 24
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小酒馆燃着灯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值