SELU激活函数,scaled exponential linear units


SELU、ReLU、leaky ReLU对比:

https://github.com/shaohua0116/Activation-Visualization-Histogram



关于SELU激活函数的详细介绍,从这个地址转来的:

http://blog.csdn.net/liyuan123zhouhui/article/details/73702271


最近出现了一个新的激活函数:缩放指数线性单元(scaled exponential linear units,selu),根据该激活函数得到的网络具有自归一化功能。

首先给出文章地址:https://arxiv.org/pdf/1706.02515.pdf

然后大概讲一下这个激活函数的作用(个人理解,也有可能有误)。 
一般在深度学习中,在每层添加批处理能够使得网络收敛的更快,同时在效果上也有提升。 
这篇文章就在思考,能不能够提出一种激活函数,经过该激活函数后使得样本分布自动归一化到0均值和单位方差,在这篇文章中,作者给出了长达97的证明,证明了在满足以下两个条件的情况下,使用该激活函数后使得样本分布满足零均值和单位方差: 
1 按照给定的参数对权重初始化:对于正态分布的初始化,初始化参数为0均值,方差为sqrt(1/n),n是输入的通道个数,在tensorflow里面提供的比较好的实现: 
tf.initializers.variance_scaling_initializer(factor=1.0,model=’FAN_IN’) 
也可以自己直接指定,详细的参数介绍可以看看下面的网站:http://www.cnblogs.com/denny402/p/6932956.html 
2 按照给定的参数对样本计算激活函数: 
这里写图片描述 
其中lamada:1.0507009873554804934193349852946 
alpha:1.6732632423543772848170429916717 
这两个值是在文章中进行证明后得到的,如果需要得到归一化后得到指定均值和方差的lamada和alpha,文章中也给出了相应的计算公式。

下面给出tensorflow中实现的selu激活函数:

def selu(x):
  with ops.name_scope('elu') as scope:
    alpha = 1.6732632423543772848170429916717
    scale = 1.0507009873554804934193349852946
    return scale*tf.where(x>0.0,x,alpha*tf.nn.elu(x))

  • 5
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 MATLAB 中,可以通过以下方式定义 Selu 激活函数: ```matlab function y = selu(x) alpha = 1.6732632423543772848170429916717; scale = 1.0507009873554804934193349852946; y = scale * (max(x,0) + min(0, alpha * (exp(x) - 1))); end ``` 这个函数实现了 Selu 激活函数的公式: $$ \mathtt{Selu}(x) = \begin{cases} \lambda x & \text{if } x > 0 \\ \lambda \alpha (\exp(x) - 1) & \text{if } x \leq 0 \end{cases} $$ 其中 $\lambda$ 和 $\alpha$ 分别是缩放和斜率参数。在上面的代码中,我们将这些参数硬编码为常数。 然后,你可以在你的 MATLAB 程序中使用 `selu` 函数来替代其他激活函数,比如 `relu`。例如: ```matlab % 定义一个三层神经网络,其中每一层都使用 Selu 激活函数 net = feedforwardnet([10 20 5]); net.layers{1}.transferFcn = 'selu'; net.layers{2}.transferFcn = 'selu'; net.layers{3}.transferFcn = 'selu'; % 训练神经网络 x = rand(100, 10); y = rand(100, 5); net = train(net, x', y'); ``` ### 回答2: 在MATLAB中使用SELU激活函数 SELUScaled Exponential Linear Unit)是一种激活函数,在MATLAB中可以通过以下步骤编辑程序来使用SEL真: 步骤1: 准备数据 您首先需要准备输入数据以测试SEL函数。 可以通过创建一个向量或矩阵的形式,然后将其作为输入提供给神经网络模型。 例如,如果您有一个大小为m×n的矩阵X作为输入数据,您可以通过以下方式创建它: X = rand(m, n); 步骤2: 编写神经网络模型 创建一个神经网络模型,其中包含要使用SEL激活函数的层。 例如,您可以使用MATLAB的Deep Learning Toolbox中的nnet.cnn.layer.SELayer来定义一个具有SEL激活函数的层。 以下是一个示例模型的代码: model = [ imageInputLayer([m n]) fullyConnectedLayer(10) SELayer('selu') fullyConnectedLayer(10) softmaxLayer classificationLayer ]; 步骤3: 训练和评估模型 使用模型和数据进行训练,然后评估模型的性能。 例如,您可以使用MATLAB中的trainNetwork函数进行模型训练,使用evaluate函数评估模型的性能。 trainOpts = trainingOptions('adam', 'MiniBatchSize', 10); model = trainNetwork(X, Y, model, trainOpts); Y_pred = classify(model, X_test); 步骤4: 可选的模型调优 您还可以使用其他可用的优化技术和超参数来调整模型,以改进其性能。 例如,您可以使用crossval函数来执行交叉验证,并使用hyperparameters函数来定义要搜索的超参数范围,以找到最佳的模型配置。 cv = cvpartition(size(X, 1), 'KFold', 5); hyperparameters = struct('Layer1Size', [10 20], 'Layer1Activation', {'relu' 'selu'}); results = hyperparametersearch(X, Y, model, cv, hyperparameters); 这些编辑步骤应该使您能够在MATLAB中使用SEL激活函数。请根据您的具体需求和数据调整代码,以获得最佳结果。 ### 回答3: 在MATLAB中,如果需要使用SELUScaled Exponential Linear Unit激活函数,可以按照以下步骤进行编辑程序: 1. 导入必要的库文件: ``` import deep learning toolbox ``` 2. 定义SELU激活函数: ``` function output = selu(x) alpha = 1.6733; scale = 1.0507; output = scale * (alpha * (exp(x) - 1) .* (x <= 0) + x .* (x > 0)); end ``` 3. 创建或加载神经网络模型,例如使用深度学习工具箱中的`network`函数: ``` net = network(); ``` 4. 指定激活函数SELU,例如通过设置神经网络层的`transferFcn`属性为`'selu'`: ``` net.layers{i}.transferFcn = 'selu'; ``` 通过以上步骤,您将能够在MATLAB中使用SELU激活函数。请注意,如果您的MATLAB版本不支持深度学习工具箱,则无法直接使用`network`函数和内置的SELU激活函数。但是您仍然可以手动实现SELU激活函数并将其应用于您自己定义的神经网络模型中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值