深度学习知识点总结-激活函数

深度学习知识点总结

专栏链接:
https://blog.csdn.net/qq_39707285/article/details/124005405

本专栏主要总结深度学习中的知识点,从各大数据集比赛开始,介绍历年冠军算法;同时总结深度学习中重要的知识点,包括损失函数、优化器、各种经典算法、各种算法的优化策略Bag of Freebies (BoF)等。

本章介绍多种激活函数



2.2.激活函数

任何神经网络的主要目标都是使用层次性层次结构将非线性可分的输入数据转换为更线性可分的抽象特征,这些层是线性函数和非线性函数的组合,最流行和最常见的非线性层是激活函数(AFs),如sigmoid、Tanh、ReLU、ELU、Swish和Mish。

使用不同激活函数在CIFAR10上准确率对比:
使用不同激活函数在CIFAR10上准确率对比
使用不同激活函数在CIFAR100上准确率对比:
使用不同激活函数在CIFAR100上准确率对比
使用不同激活函数在CIFAR100上训练耗时统计:
在这里插入图片描述
综合实验分析发现:

  • Softplus、ELU和CELU激活函数更适合MobileNet;
  • ReLU、Mish和PDELU在VGG16、 GoogleNet和DenseNet上表现都很好;
  • ReLU、LReLU、ELU、GELU、CELU、ABReLU和PDELU更适合含有残差连接的算法,例如ResNet50,SENet18和DenseNet121等;
  • 训练过程中,PDELU非常低效,另外SRS和Elliott也耗时很久。 ReLU, ELU, CELU和Softplus能在准确率和耗时中有一个很好的权衡。

2.2.1. 激活函数汇总

  • Logistic Sigmoid
    在这里插入图片描述
x = np.linspace(-15, 15, 1000)
y = 1 / (1 + np.exp(-x))    # sigmoid

在这里插入图片描述

  • Tanh
    在这里插入图片描述
x = np.linspace(-15, 15, 1000)
y = np.tanh(x)                # tanh

在这里插入图片描述

  • ReLU系列
    在这里插入图片描述
  • ReLU
    在这里插入图片描述
  • LReLU
    在这里插入图片描述
  • ELU
    在这里插入图片描述
  • SELU
    在这里插入图片描述
  • GELU
    在这里插入图片描述
  • CELU
    在这里插入图片描述
import matplotlib.pyplot as plt
import numpy as np
import torch
import torch.nn.functional as F

fig = plt.figure(figsize=(12, 6)
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值