CV
文章平均质量分 91
ArchibaldChain
这个作者很懒,什么都没留下…
展开
-
论文笔记: Deep quantization Network for Efficienct Image Retrieval
论文笔记: Deep Quantization Network for Efficient Image Retrieval这篇文章多处与另一篇相似: [Deep Hashing Network for efficient Similarity Retrieval][1].文章做的事情(1)构建了一个深度神经网络表达(2)使用瓶颈网络构建了一个维度降低的哈希码。(3)用配对损失来构建相似度学习(4)量化损失用来控制哈希质量。深度哈希网络网络模型可以参见[另一篇文章的笔记][1]这篇文章的网络原创 2020-08-26 16:47:34 · 847 阅读 · 1 评论 -
论文笔记:Deep Hashing Network for Efficient Similarity Retrieval
论文笔记: Deep Quantization Network for Efficient Image Retrieval灵魂三问论文提出的问题由于quantization error, 哈希编码将不能准确地表达特征论文做了什么?用多池化层卷积神经网络,来表达图片用全连接的哈希层来生成二进制哈希编码用相应的交叉熵层来学习相似性用配对的量化损失来控制哈希质量论文达到了什么效果?通过在标准的哈希检索数据集上的实验,文中的方法超过了最新的哈希方法。深度哈希网络 Deep Ha原创 2020-08-22 17:44:41 · 1009 阅读 · 0 评论 -
论文笔记:Non-Local Neural Network
论文笔记:Non-Local Neural NetworkAbstract卷积和循环操作都一次只在一个局部neighborhood上操作。受到传统计算机视觉中非局部中值计算的启发,作者决定使用此方法在深度学习上。公式通用公式:yi=1C(x)∑∀jf(xi,xj)g(xj)\mathbf{y}_{i}=\frac{1}{\mathcal{C}(\mathbf{x})} \sum_{\forall j} f\left(\mathbf{x}_{i}, \mathbf{x}_{j}\right) g原创 2020-08-03 17:53:55 · 183 阅读 · 0 评论 -
论文笔记:残差网络 Deep Residual Learning for Image Recognition
论文笔记: Deep Residual Learning for Image Recognition目标:利用残差网络是的训练更加简单面对的问题:degradation Problem: 当添加的网络层次变多,精确度逐渐饱和,网络层次将趋近饱和。Intuition:文中的想法是将堆叠的感知器学习原有输出的残差。具体表示是:假设H(x)\mathcal{H}(\mathbf{x})H(x)为表示某几层感知器的, xxx是输入。那么我们令F(x):=H(x)−x\mathcal{F}(\mathbf原创 2020-08-02 16:50:46 · 264 阅读 · 0 评论 -
论文笔记:SlowFast Networks for Video Recognition
论文笔记:SlowFast Networks for Video Recognition灵魂三问:作者想干什么?提取视频信息是怎么实现的?通过分别低采样和高采样低采样:提取空间语义(spacial sematics)高采样:提取时域上的运动实现了什么目标?在动作识别以及检测都有很显著提升测试集:Kinetics, Charades, AVA,Intuition在图片中,I(x,y)I(x,y)I(x,y) 有各向同性 (isotropic), 那么视频信号原创 2020-07-24 16:11:47 · 206 阅读 · 0 评论 -
论文笔记:Evolving Losses for Unsupervised Video Representation Learning
Evolving Losses for Unsupervised Video Representation Learning 论文笔记DistillationKnowledge Distillation from: zhihuDistillate Knowledge from Teacher model Net-T to Student model Net-S.目的:为了精简模型方便部署。L=αLsoft+βLhardL=\alpha L_{s o f t}+\beta L_{h a r d}原创 2020-07-20 20:35:46 · 904 阅读 · 0 评论