一步一步分析讲解神经网络基础-activation function

本文深入探讨了神经网络中的激活函数,解释了其作为非线性转换的重要性,介绍了数学和生物学角度的特征。文章指出,激活函数的选择对于解决复杂问题至关重要,并预告了如何选择激活函数的后续讨论。
摘要由CSDN通过智能技术生成

activation function:在神经网络中经常,看到它的身影。那现在问题来啦。它是什么?为什么需要它?
有些回答:增加非线性特征。解决线性无法分割的难题,…。严格来讲这些回答太笼统。
第一个问题:先来回答它是什么?
它是一个non-linear function.
是一个连续的函数,
并且在定义域内处处可微。
(可微,不一定可导。这是微分的基础知识,不太清楚的童鞋,一定要把断点,可(偏)微,可(偏)导,全微搞清楚)下面常用激活函数表:
名称,点图,公式,一阶导数,值域,定义域。

In computational networks, the activation function of a node defines the output of that node given an input or set of inputs. A standard computer chip circuit can be seen as a digital network of activation functions that can be “ON” (1) or “OFF” (0), depending on input

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(CNN)是一种具有深度结构的前馈神经网络,它是深度学习的代表算法之一。CNN具有表征学习能力,能够对输入信息进行平移不变分类。它被广泛应用于图像识别、计算机视觉和自然语言处理等领域。 CNN的工作原理可以简单地解释为以下几个步骤: 1. 卷积层(Convolutional Layer):卷积层是CNN的核心组成部分。它通过使用一组可学习的滤波器(也称为卷积核)对输入数据进行卷积运算。这个卷积运算可以提取输入数据中的特征,例如边缘、纹理等。每个滤波器在输入数据上进行滑动,并计算出对应位置的卷积结果。这样,卷积层可以生成一系列的特征图,每个特征图对应一个滤波器。 2. 激活函数Activation Function):在卷积层之后,通常会使用一个非线性的激活函数,例如ReLU(Rectified Linear Unit),来引入非线性变换。激活函数可以增加网络的表达能力,使其能够学习更加复杂的特征。 3. 池化层(Pooling Layer):池化层用于减小特征图的空间尺寸,同时保留重要的特征。常用的池化操作包括最大池化和平均池化。池化层可以减少网络的参数数量,提高计算效率,并且具有一定的平移不变性。 4. 全连接层(Fully Connected Layer):在经过多个卷积层和池化层之后,通常会使用全连接层来进行最终的分类或回归任务。全连接层将前面的特征图展平成一个向量,并通过一系列的全连接操作进行分类或回归。 在训练过程中,CNN通过计算损失函数来评估网络的预测结果与真实标签之间的差异。然后,使用梯度下降法对网络参数进行调整,以最小化损失函数。这个参数调整的过程可以通过反向传播算法来实现,根据损失函数的梯度对网络中的每个参数进行更新。 总结起来,卷积神经网络通过卷积层、激活函数、池化层和全连接层等组件,以及梯度下降法进行参数调整,实现对输入数据的特征提取和分类。这种网络结构和训练方法使得CNN在图像识别和其他领域中取得了很好的效果。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [刘雪峰卷积神经网络,卷积神经网络讲解](https://blog.csdn.net/mynote/article/details/127437449)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [卷积bp神经网络算法详解,卷积神经网络实例讲解](https://blog.csdn.net/super339/article/details/126548960)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值