卷积神经网络
文章平均质量分 80
BlackMan_阿伟
不积跬步无以至千里
展开
-
面试算法岗总结(持续更新.....)
寒假以来一直在投一些算法实习岗位,既然是算法,面大厂的话肯定少不了“手撕代码”的问题,怕自己忘掉,因此做已记录。目标是面试8个公司,现在已经面试了有三星、华为、快手,其中三星没有考代码题目。三星比较水,没有考代码问题。华为比较简单,就考察了一个斐波那契数列的问题。面试也是比较简单只考了一个算法题。class Solution: def fib(self, n: int) -> int: a, b = 0, 1 for _ in range原创 2021-01-28 17:32:44 · 726 阅读 · 4 评论 -
跨模态检索mAP的计算
1、跨模态检索输入qB:查询输入的汉明码,m*bit(64/128)rB:检索集的汉明码,n**bit(64/128)query_L:查询输入的标签,m*21(21个类别)retrieval_L:检索集的标签,n*212、跨模态检索mAP公式这个公式表示的就是如何计算Q个数据的检索,我们只需要计算每条数据的检索的Ap即可,也就是AveP(q)AveP中,其中分母表示有几个相关文档,rel(k)表示排名第k的文档是不是相关文档,P(k)表示排名第k个文档的精准率。3、跨模态检索代码实例原创 2021-06-22 16:17:19 · 1027 阅读 · 1 评论 -
循环神经网络之Recurrent Neural Network(RNN)
1、什么是RNN?全名,叫做Recurrent neural network,它可以处理有序列的或者有前后关系的句子,利用前面的信息预测后面的信息,这个是RNN和CNN最大的区别。CNN不考虑顺序依赖关系,RNN考虑顺序依赖关系。2、RNN的结构这个图就是一个循环神经网络,它循环其实是一个"假"循环,就是将每个时间步的输入拆开即可。首先说一下RNN的输入和学习的参数。输入:x_t:每个时间步的输入,s_t每个时间步的隐状态向量。输出:o_t每个时间步的输出接下来说说如何得到隐状态原创 2021-05-21 11:37:25 · 421 阅读 · 0 评论 -
RoI Pooling和Roi Align的区别(Mask RCNN的一个contribution )
最近两天再看mask rcnn的文章,这个文章其实就利用之前faster rcnn和FPN的工作,再加了一个mask分支就可以完成实例分割的任务,当然这个文章中我觉得主要有两个创新点:1、提出了RoAlign1、RoI pooling2、RoI Align...原创 2020-12-10 23:14:29 · 423 阅读 · 0 评论 -
目标检测之RPN网络(Feature Pyramid Networks for Object Detection)
最近读了几篇WSDN的文章,有一篇的paper用到了RPN网络的一些思想,因此去拜读一下RPN这篇paper。这篇paper的attribution就是取长补短的思想,在卷积神经网络中,网络层数越浅,语意特征不明显,但是图像的特征却比较明显;网络层数越深,语义特征却越明显;这个其实从卷积神经网络的可视化都是可以看出来的。因此这篇paper想用的思想就是将深层的抽象特征与浅层丰富的几何信息结合到一起,这样生成的feature含有的信息就比较丰沛。尤其对于目标检测来说,深层的网络虽然具有很高的语义信息,但是Fe原创 2020-12-07 22:57:44 · 932 阅读 · 0 评论 -
从Xception网络中聊聊深度可分离卷积
Xception: Deep Learning with Depthwise Separable Convolutions,在这篇文章中应用了深度可分离卷积。对于卷积来说可以看作三维的滤波器:通道维度+空间维度,常规的卷积就实现空间相关性和通道相关性。传统的卷积就是把所有通道当作一个整体来进行卷积,而在Xception文章中把通道数进行分组然后再卷积,然后再联合。这幅图和Xception最接近,先进行1*1的卷积,然后再每个通道上进行3*3的卷积。将这个结果Concat起来就是卷积的结果,当然这也是原创 2020-07-20 17:35:40 · 725 阅读 · 0 评论 -
BP神经网络(手撕前向和反向传播)
昨天突然看到BP,然后就心里想手撕一下BP的原理和代码,所以就今天看了看。有一个国外哥们写BP写的特别好:BP神经网络。好了,接下来进从这几个方面讲述BP神经网络1、什么是BP?是一种按照误差逆向传播算法训练的多层前馈神经网络2、什么是反向传播?反向传播传播的是什么?我们反向传播的目标是更新网络中的每个权重,以便它们使实际输出更接近目标输出,从而将每个输出神经元和整个网络的误差最小化。传播的误差,更新权重使得loss最小。3、前向传播前向传播传数据的输入,特征的提取,分类。原创 2020-06-07 21:50:07 · 1225 阅读 · 0 评论 -
关于非极大值抑制NMS(Non-maximum suppression)的理解
前一段时间看过一次NMS,但是也只是含含糊糊的,理解的不是很到位。最近在做一个东西的时候必须要用到NMS,因此重新仔细的看了一遍NMS。那么我将从三个方面阐述对于NMS的一些理解。1.什么是NMS?NMS的中文意思就是非极大值抑制。故名思意就是抑制不是极大值的一些值,在概念这块的理解来说,它不是一个最大值而是一个局部最大值。那对于目标检测来说的话,就是要删除一些不是极大框的目标区域。2...原创 2019-11-11 22:49:48 · 1233 阅读 · 0 评论 -
关于网络中的1*1卷积
由于在看Faster R-CNN中在RPN中用到了1*1的卷积,因此查阅资料观看视频之后作以总结。1*1卷积核的作用:1.放缩通道数目加入现在有一个64*64*128的输入,需要通过卷积之后生成一个32*32*128,那我们直接可以对这个输入坐卷积或者做池化,就可以改变输入的长和宽,因为输入和输出的通道数目都是相同的。但是如果我们需要输出一个64*64*192。那这个时候就必须要用到1...原创 2019-10-24 21:40:11 · 619 阅读 · 0 评论