深度学习常用算子

深度学习常用算子

算子功能
ReluReLU(x)=max(0,x)
LeakyReluLeakyRelu(x) = (x >= 0 ? x : x*negative_slope)
Relu6LeakyRelu(x) = max(max(x, 0), 6)
Tantanh(x)=(exp(x)-exp(-x))/(exp(x)+exp(-x))
sigmoidsigmoid(x) = 1. / (1. + exp(x))
PReluf(x) = max(x, 0) + slope_data[c] * min(x, 0)
Add+
Sub-
Mul*
RealDiv/
BiasAdd用于增加bias操作,通常bias是一维Tensor
MatMul矩阵乘
Axpy向量求和,公式:y += a * x
EltwiseOp多个Tensor对应位置元素进行相乘、相加、取最大值中一种操作
BatchNorm加快神经网络的训练收敛速度
LRNLocal Response Normalization,即局部响应归一化层 LRN这个概念和运用是出现在AlexNet中。LRN最初是生物学里的概念“相邻神经元抑制”,对局部神经元的活动创建竞争机制。使用LRN增加了泛化能力(使输出中响应比较大的值变得相对更大,并抑制其他响应较小的神经元),做了平滑处理,提高了1%~2%的识别率。
SsdNormalize作用:限制了一次归一化的范围 使用网络:SSD
Convolution分区域进行特征值提取
FullConnection看作一种特殊卷积层,或者看作矩阵乘;整个输入作为feature map,进行特征提取FC是一种迁移学习的结果,通常FC后面接Softmax,所以FC层的功能还包括矩阵维度变换,将维度变换为Softmax对应的维度
Correlation功能
DeConvolution采用分步计算的方法,完成普通3D核的计算,其好处在于提升卷积计算的效率
PoolingPooling的作用是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值或平均值。Pooling减少了参数的数量,防止过拟合现象的发生。
Mean只有取均值功能的滑窗算子
ROIPooling对ROI进行pooling操作,从不同大小的方框得到固定大小相应 的feature maps 使用网络:Faster RCNN
ROIAlign作用:解决ROIPooling两次量化带来的问题,使用线性插值的方式来解决。使用网络:Mask-RCNN
PSROIPooling使用网络:R-FCN
Flatten将输入tensor中从start_axis维度到end_axis维度合并为1维
Reshape将输入Tensor描述转换为新的shape
FreespaceExtract将h维变成1,其他维度不变,从而完成对h的采样,采样值所在位置由输入的index参数决定
PackPack算子为TensorFlow原生算子,最新的版本已经改名为:Stack。该算子以指定的轴axis,将一个维度为R的张量数组转变成一个维度为R+1的张量。
Pad进行数据扩充
Permute调整Tensor的输入维度顺序
ShuffleChannel作用:调整C维的排序 使用网络:ShuffleNet
Title将输入数据在每个维度上复制指定次数来生成输出数据
Rsqrty = 1 / sqrt{x}
Scaley(x)=scale*x+bias
AbsValy(x)=
Powerf(x)= (scale * x + shift) ^ power
Softmax通常作为分类网络的最后一层,输出每类的概率
ClipBoxes将输入的框坐标限制在[0,img_w-1]和[0,img_h-1]之间。
DecodeBoxes将输入框的长宽坐标转换为描点坐标(框中心点坐标和长宽),然后进行修正,修正后再替换回长宽坐标
DetectPostProcess(1)对输入的框进行修正;(2)按照得分进行排序;(3)使用NMS进行过滤;(4)每个分类取前N个框输出。
FasterRcnnPredictions获取得分最高的N个框,需要进行NMS处理。
FSRDectionOutput作用:获取得分最高的N个框,需要进行NMS处理 输入数据:每个分类的得分数据、roi坐标、roi偏移、feature map的长和宽 使用网络:FasterRcnn
GenerateRPNProposals作用:根据输入rois坐标和得分,输出排序和NMS处理后的前N个框,框坐标形式为左上角和右下角 使用网络:Mask Rcnn
Proposal作用:根据锚点前后得分、锚点偏移、原始图片的长宽缩放,来获取得分最高的N个预选框;特点:对特征图上的每个点,生成scale*ratio个固定大小的窗口;即候选窗口是该算子生成的。
SsdDetectionOutput作用:用来生成预测框相对原图的真实坐标,并对所有预测框进行过滤,得到最终物体检测的结果。输出的每个预测框的信息包括image id ,lable, confidence以及四个坐标值。使用网络:SSD
SsdPriorBox作用:生成预选框 使用网络:SSD
Concat实现多个算子的拼接
spatial transform在CNN之前对feature map进行旋转、缩放、平移、剪切等操作.使用网络:Spatial Transformer Networks(STN)
  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习常用的上采样算子有最近邻插值、双线性插值、pixelshuffle、unpool和逆卷积。最近邻插值是一种简单的上采样方法,它根据原始图像中最近的像素值来填充新的像素。双线性插值通过对原始图像中的四个最近领域像素进行加权平均来计算新的像素值,以实现更平滑的上采样效果。pixelshuffle是一种特殊的上采样方法,它通过重排输入张量的通道来实现上采样。unpool是一种与pooling操作相对应的上采样方法,它通过保存pooling操作时的最大值位置信息来还原原始输入。逆卷积是一种基于卷积操作的上采样方法,它通过在原始图像上应用反向卷积核来增加图像的尺寸。这些上采样算子深度学习中被广泛应用于图像处理和语义分割等任务中。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [深度学习几种上采样方法代码,最近邻插值,双线性插值,pixelshuffle,unpool,逆卷积等示例代码](https://download.csdn.net/download/qq_40035462/85019559)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [深度学习中上采样方法总结](https://blog.csdn.net/Mike_honor/article/details/126538091)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值