Deeplearning
文章平均质量分 65
深深深度学习
棉毛裤穿吗
而我们终将回归那片太初的花海
展开
-
[CV]一些关于计算机视觉面试题的整理
Batchnormalization 批量标准化深度学习有个本质性的问题:随着网络深度加深,训练起来困难,本质是反向传播的时候梯度消失。比如我们看sigmoid函数图源百度百科显而易见的就是在大于4的时候,函数已经变化非常平缓了,也就是再训练下去就要梯度消失了。这时候我们的BatchNorm...原创 2022-04-17 09:59:14 · 2656 阅读 · 0 评论 -
工业界精排模型整合
参考推荐系统精排模型综述2021Wide & Deep Learning for Recommender Systems(2016.06)GoogleOverview由wide部分和deep部分组成Part 1WideLayer线性模型记忆性好Part 2Deep Layer先embedding然后扔进dnn泛化性好最后把part1 跟 part2 的结果concat起来Experiment在一个实时的推荐系统Google p...原创 2021-09-16 10:59:53 · 238 阅读 · 0 评论 -
8.31 关于 深度学习中的 L1,L2 正则化
纯粹为了复习一下白天看的那几分钟的视频= =https://www.bilibili.com/video/BV17441117dm?p=3&t=517up讲的很清楚很好也很详细 非常适合没啥基础的 脑袋瓜转的比较慢的选手比如我食用【基础知识】L0,L1,L2(假装这个0,1,2都是小下标)范数:举个栗子:向量A1 = [1,2,3,0,-5,9]L0范数就是向量中非0的个数,即为5L1范数就是向量中离0的(忘记这个专业名词)距离来着,A1的L1范数就是1 + 2 +.原创 2020-08-31 22:02:02 · 151 阅读 · 0 评论 -
[Deeplearning]NMS(非极大值抑制)
NMS(non-maxium suppression)我要继续进行学习记录!填充自己的空余时间!最近好水啊。。每天godliegodlie上头。。目标检测yolo系列最后一步!对anchor进行选择!如下图,假设我们要检测僵尸。经过各种阈值筛选后还剩这些anchor。nms如其名,抑制不是最大的那些值。首先选择置信度最大的那个框,将其加入集合,对图中其他的框与该框做一个iou值计算。假设我们已经提前设定过阈值了。我们删除计算出来iou值大于阈值的那些框(也就是重合度很高的框)原创 2021-08-28 16:02:38 · 215 阅读 · 0 评论 -
[Deeplearning]SPP
spp 全名 spatial pyramid pooling 空间金字塔池化一开始提出来主要是为了解决在CNN中最后都会跟着一层全连接层,全连接层输入的特征数是固定的,所以我们在输入的时候往往需要固定大小的图片尺寸,但因为实际状况的问题,不能满足这种情况,我们就需要对图片进行缩放,裁剪等操作,在一定程度上会扭曲原始的图像。所以就提出了spp,可以对任意输入的图片固定输出大小。spp的思路是 对每一个输入的feature map 划分成 16 / 4 / 1 个网格。然后在这三幅划分的网格图中原创 2021-09-01 09:56:28 · 187 阅读 · 0 评论 -
[Deeplearning]dwconv
dwconv是由一个两部分卷积组成的一个网络第一部分是depthwise conv 是分通道的一个卷积 就是每个卷积核对应input的每一个通道 有图好理解很多 如下图源https://blog.csdn.net/tintinetmilou/article/details/81607721因为上面每个层的特征都分开 没有有效的利用相同空间位置上不同层的有效信息,所以有了第二部分第二部分是pointwise conv它将第一部分各自独立的featuremap进行组合生成了新的..原创 2021-08-31 09:49:46 · 15206 阅读 · 2 评论