![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
online_hashing
文章平均质量分 68
浪越大越要逆流,
逆境方显英雄本色。
qq2285580599
这个作者很懒,什么都没留下…
展开
-
Supervised Online Hashing via Hadamard Codebook Learning
摘要 我们的方法有以下的步骤: 1,给每一个类标签生成一个高维二进制码。 2,运用LSH去将类标签的高维二进制码与哈希码对齐。 3,我们使用在线SGD去优化,每个chunk可以只含一条数据。 4,如果出现过未知名的类,直接可以选取一个没使用过的高维二进制码表示它。 介绍 现有方法有以下不足: 1,不是在线的,不适合现实场景。 2,要求输入数据必须是成batch的,不适合一条一条地输入,也就不适合用SGD来解决。 3,无监督的方法不能充分利用标签信息,有监督的方法举例想要的效果又很远,有监原创 2021-11-22 20:46:34 · 220 阅读 · 0 评论 -
Towards Optimal Discrete Online Hashing with Balanced Similarity
摘要原创 2021-11-22 19:34:09 · 166 阅读 · 0 评论 -
Online Sketching Hashing
摘要 最近,基于哈希的近似最近邻ANN搜索已经引起了广泛的关注。 这种方法有两个关键的问题: 1,首先,在真实的世界,数据是以流的数据传递,但是现今大多数的哈希方法是基于batch的。 2,其次,当数据集变得很大的时候,把所有的数据运送到内存是不可能的。 在这篇文章,我们采用矩阵素描的同时去处理这两个问题。矩阵素描就是通过很小的尺寸就可以 保持数据集的主要特征。通过一个小的素描尺寸,我们的方法可以用一个在线的方式学习哈希函数。 目前主要面临的问题 1,数据以流的方式持续可用。 2,随着数据原创 2021-06-14 09:34:01 · 320 阅读 · 0 评论 -
Online Hashing
摘要 我们提出了一个在线哈希学习算法。 1,更新的哈希模型被上一次学习的哈希函数惩罚,目的是保持上一轮中 的重要信息。 2,我们也提出了一个累积损失的紧边界。 (至于为什么提出这个紧边界,我也不求甚解,并且代码里面都没有对这个 ...原创 2021-06-11 16:17:42 · 184 阅读 · 0 评论