pytorch学习笔记(七)——激活函数

pytorch学习笔记(七)——激活函数

目录

激活函数的由来

在这里插入图片描述
1959年,生物科学家研究青蛙神经元的时候发现,青蛙的神经元有多个输入,神经元中间有一个多输入加权后的相应,当该响应小于阈值时没有输出,当该响应大于阈值是会有一个固定的输出。当时的计算机科学家借鉴于此发明了一个计算机模型,如下图:在这里插入图片描述
假设z为输入经过加权后的值,z小于阈值输出0,z大于阈值输出1。(阶梯函数)
为了解决阶梯函数在阶梯处不可导的缺点,计算机学家们引入了sigmoid函数

sigmoid激活函数

(1)sigmoid定义
在这里插入图片描述
从图中可以看出sigmoid函数处处可导,在x趋于负无穷时,y趋于0,导数趋于0:在x趋于正无穷时,y趋于1,导数趋于0。
(2)sigmoid求导

注意力层后是否需要经过激活函数取决于具体的应用场景和网络结构。在某些情况下,注意力层后的输出可以直接作为最终的输出,而无需经过激活函数。这是因为注意力机制本身已经对输入进行了加权处理,可以直接提供有用的信息。然而,在其他情况下,特别是当注意力层的输出需要经过进一步的处理时,可以选择适当的激活函数。 常用的激活函数包括Sigmoid、Tanh和ReLU等。Sigmoid和Tanh是饱和激活函数,其梯度取范围分别是(0,1)和(-1,1)。而ReLU及其变体是非饱和激活函数,能够避免梯度消失和梯度爆炸的问题,并且在近年来得到了广泛的应用。此外,还有一些其他的激活函数,如ELU和SELU,它们具有自归一化的特性,能够保证训练过程中梯度不会爆炸或消失。 因此,根据具体的需求和网络结构,可以选择是否在注意力层后使用激活函数。如果需要进一步处理输出,可以选择适当的激活函数来增强网络的表达能力和性能。 #### 引用[.reference_title] - *1* [注意力机制+ReLU激活函数:自适应参数化ReLU激活函数](https://blog.csdn.net/shisuzanian/article/details/104852586)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [pytorch学习笔记八:nn网络层——激活函数层](https://blog.csdn.net/Dear_learner/article/details/122991448)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值