tensroflow激活函数 tensorflow框架系列(二)

卷积神经网络CNN的结构一般包含这几个层:

输入层(input):用于数据的输入。在CNN的输入层中,(图片)数据输入的格式 与 全连接神经网络的输入格式(一维向量)不太一样。CNN的输入层的输入格式保留了图片本身的结构。
卷积层(conv):使用卷积核进行特征提取和特征映射。在卷积层中有几个重要的概念:
local receptive fields(感受视野)
shared weights(共享权值)
激励层(relu):由于卷积也是一种线性运算,因此需要增加非线性映射
池化层(pole):进行下采样,对特征图稀疏处理,减少数据运算量。当输入经过卷积层时,若感受视野比较小,布长stride比较小,得到的feature map (特征图)还是比较大,可以通过池化层来对每一个 feature map 进行降维操作,输出的深度还是不变的,依然为 feature map 的个数。
全连接层(FC):通常在CNN的尾部进行重新拟合,减少特征信息的损失。全连接层主要对特征进行重新拟合,减少特征信息的丢失;输出层主要准备做好最后目标结果的输出。
输出层:用于输出结果。

这章着重介绍激励层(又叫激活函数)。如果每一个神经元输出都通过一个非线性函数,使其神经网络模型变为非线性,这个非线性函数就是激活函数。

常用的激活函数:

我们使用relu函数,接着用这张图说明问题:x1=0.7,x2=0.9

a12的公式应该错了。

参考:https://blog.csdn.net/yuelulu0629/article/details/79873990

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值