深度学习知识
「已注销」
这个作者很懒,什么都没留下…
展开
-
【深度学习】深度学习博文链接收藏
一、网络结构Inception-v1 论文详解深入理解Googlenet结构原创 2021-05-12 10:34:10 · 77 阅读 · 0 评论 -
深度可分离巻积与分组巻积
深度可分离卷积分组卷积(Group conv)与深度可分离卷积(Depthwise separable conv)原创 2021-03-03 12:16:48 · 85 阅读 · 0 评论 -
torch.topk【按维度求前k个最值以及其索引】以及top1和top5
分类中常用到top1和top5的指标:top1是指 预测错误样本数/总样本数,此处的预测错误的样本是指 预测的最大概率对应的类别与真实类别不同;top5是指 预测错误样本数/总样本数,此处的预测错误的样本是指 预测的排序前五的概率对应的类别中没有真实类别。一般来讲,top5 error要小于top1 error,排序前五的概率中没有真实标签几率小。有的博客解释需要top5 error是因为人工标记可能出现偏差,因此要放宽标准。【torch.topk函数】目的:求取tensor中某个dim的排序前原创 2021-01-31 19:21:50 · 5762 阅读 · 0 评论 -
核方法
核方法是什么?很多情况下,在低维空间中不可分的样本映射到高空间后就可分,而映射需要使用映射函数,而且映射到高位空间后一般需要计算内积<φ(x1),φ(x2)>,而核方法就是用一个函数直接代替了这个映射以及内积的两步计算,而核是多种多样的,如线性核、高斯核、指数核等等,不过核在使用时需要选择,有时候选择不适合的核用在高位空间依然不可分,因此核的选择也很关键。各种核方法归纳...原创 2021-01-21 15:48:43 · 1743 阅读 · 0 评论 -
bilinear cnn中的计算
在看bilinear cnn论文时,文章中描述经过两个网络分别得到的两个特征图,假设形状均为355,对两个特征图相同位置的31的特征向量作外积,得到33的矩阵,而特征图有55=25个位置,因此有25个这样的33矩阵,之后采用sum_pooling,也就是25个矩阵对应位置相加,最终得到的矩阵打为一维,后经过有符号的开根号、L2 normalization进行SVM判断。具体计算如下所示:此计算的效果等同于将两个355的特征图转为325的特征图,之后两个325的特征图作外积,得到的效果与上面的效果相同。原创 2021-01-14 16:16:24 · 266 阅读 · 0 评论 -
FLOP参数
好文:CNN 模型所需的计算力flops是什么?怎么计算?安装pytorch插件:sovrasov/flops-counter.pytorch————————————————————————————————————————————文章中的概念:对flops有疑惑,首先得先捋清这个概念:FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:注意s小写,是floating原创 2021-01-08 09:47:25 · 567 阅读 · 2 评论 -
信息熵、交叉熵、KL散度、JS距离
锁定原创 2021-01-07 18:18:28 · 115 阅读 · 0 评论 -
非局部均值去噪|xiaoluo91的代码
本篇文章的理论部分出自这位博主的文章:非局部均值去噪(NL-means)这位博主还将文章的文档以及代码发布出来:链接: https://pan.baidu.com/s/1G5cURRSauf_G_0kDFE4srg 提取码: be36 由于最近在看自注意力的相关内容,看到了Non local Neural Network这篇论文,论文的主要思路来源于 非局部均值去噪,解决长距离依赖的问题。因为正常情况下,巻积神经网络采用的是局部依赖,小感受野的滑动,得到的是局部信息,而目标整体信息只能通过增加感受野原创 2021-01-05 10:46:54 · 213 阅读 · 0 评论 -
CAM(class attention map)
1 主要思想上图中,网络的最后一个卷积层,经过全局平均池化后,后跟上全连接,经过softmax输出类别。其公式描述为:Sc是c类对应的全连接的输入,也就是加权求和,k代表第k层,c代表第c类。f为第k层(x,y)处的激活值,求和符号是GAP,其前面经过w加权求和,输出为Sc。其等价于:在(1)中第二行是先利用第c类对应的权重值w1~wk与特征图的每一层对应相乘,也就是给每层都分配一个权重,之后所有特征图沿通道合并,也就是将k通道变为1通道,最后再全局平均池化。也就是说,先GAP后加权求和,等价原创 2020-12-24 16:53:26 · 2013 阅读 · 0 评论 -
分类指标
precision、accuracy、recall原创 2020-12-18 12:38:16 · 112 阅读 · 0 评论