自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 零样本跨模态检索(Zero-Shot Cross-Modal Retrieval)信息论哈希

受信息理论学习[29]的最新进展的启发,我们开发了信息理论哈希(ITH),这是一种新的ZS-CMR模型,它可以在没有任何额外NLP模型指导的情况下从训练数据中学习构建公共汉明空间。为了保证泛化,受流行的零拍摄图像分类方法的启发[18]-[20],来自预训练的自然语言处理(NLP)模型的类嵌入(例如,word 2 vec [21])被用作额外的引导信号以限定公共空间。为了解决预定义的公共空间和异构数据的语义之间的潜在不兼容性,我们研究了从给定数据中构建或学习公共空间的可行性,而无需额外的NLP模型的指导。

2023-10-12 09:37:32 303

原创 Discrete asymmetric zero-shot hashing with application to cross-modalretrieva离散非对称零样本哈希及其在跨模态检索中的应用

本文的贡献包括:(1)提出了一个统一的离散非对称零拍散列码学习框架,将数据特征和类别属性相结合,学习每个模态的属性空间,并通过嵌入标签到属性空间来提高检索精度。同时,通过将数据特征与类别属性相结合,为每个类别获得语义类别表示,从而有效地捕捉已知类别和未知类别之间的关系,并将已知类别的监督知识转移到未知类别。由于类属性包含了可见类和不可见类的属性信息,因此由类属性引导的属性空间可以通过类之间的属性连接实现知识从可见类到不可见类的传递。为了保持每种模态的属性,我们的目标是为每种模态建立属性空间。

2023-10-12 09:35:19 120

原创 Transductive Zero-Shot Hashing For MultilabelImage Retrieval

我们将我们的方法(T-MLSH)与其他九种方法进行了比较,包括传统方法KSH [2],IMH [3],SDH [4],ZSH-DA [32]和TSHH [30],以及基于深度学习的方法DHN [24],Hashnet [26],ADSH [83]和TSHH [33]。确切地说,来自源数据集和目标数据集的图像的数量分别为10,000和10,000,10,000和4,000,4,000和10,000。在传统的多标签图像检索中,通常需要大量的标注数据来训练模型,但这限制了模型在未见过的类别上的泛化能力。

2023-10-10 10:19:05 124 1

原创 hpy2loss

imagelist通常出现的问题就是return 有没有返回index。跑coco时删掉 跑nuswide时 加上。该dataset.py103行有个路径。

2023-08-04 14:27:21 92 1

原创 使用N_m3u8DL-CLI下载m3u8

利用N_m3u8DL-CLI下载视频如此简单,支持小鹅通,慕课网,中国大学,网易云课堂有道精品课,腾讯课堂,超星学习通(学银在线),智慧树学堂在线,爱课程

2023-07-07 21:59:00 3555 4

原创 Transformer

注意力机制是一种广泛应用于深度学习中的算法,可以在处理序列数据时,重点关注相关的部分,从而提高模型的效果。以下是一些常见的注意力机制算法:Scaled Dot-Product Attention:这是 Transformer 模型中使用的一种注意力机制算法,它将查询向量和键向量的点积除以一个缩放系数得到注意力分数,然后使用 softmax 函数进行归一化,最后将得到的注意力分数与值向量进行加权求和。

2023-06-23 20:27:53 66 1

原创 《Label-affinity Self-adaptive Central Similarity Hashing for Image Retrieval》

这篇论文介绍了一种名为Label-affinity Self-adaptive Central Similarity Hashing (LSCSH)的图像检索方法。首先,论文提到了使用哈希编码来实现高效的图像检索。哈希编码将图像映射为二进制码,使得相似的图像具有相似的哈希码。接下来,论文提出了LSCSH方法,该方法利用标签关联性和自适应中心相似性来学习哈希编码。具体来说,LSCSH方法包括以下几个关键步骤: 特征提取:使用常见的骨干网络提取图像的特征。 哈希中心生成:设计了一个多层感

2023-06-23 20:25:59 289 1

原创 HashNet: Deep Learning to Hash by Continuation∗

学习哈希已经被广泛应用于大规模多媒体检索的近似最近邻搜索中,由于其计算效率和检索质量。深度学习哈希通过端到端表示学习和哈希编码来提高检索质量,最近受到越来越多的关注。由于优化具有符号激活功能的深度学习哈希方法存在病态梯度困难,现有方法需要首先学习连续表示,并在分离的二值化步骤中生成二进制哈希代码,这会导致严重降低检索质量。损失函数的设计不合理。在传统的哈希方法中,二进制哈希码通常是通过阈值函数对连续向量进行二值化得到的。

2023-06-23 20:25:06 891

原创 Multi-Label Hashing for Dependency Relations Among Multiple Objectives

这是一个科技论文的题目。该论文研究了多标签哈希技术在依存关系中的应用,探讨了如何同时满足多个目标。具体地说,该论文提出了一种新的哈希方法,在这篇论文中,多标签指的是一个图像可能包含多个物体,并且每个物体都有多个标签(类别)的情况。例如,一张图像中可能同时存在狗和树,并且狗可以被标记为“动物”、“宠物”等多个类别,树也可以被标记为“植物”、“自然景观”等多个类别。因此,在这个环境下,多标签哈希旨在将每个物体及其对应的所有标签映射到一个二进制码中。称为 Multi-Label Hashing for D

2023-06-23 20:24:18 179 1

原创 Swin transformer-based supervised hashing

Swin Transformer是一种基于视觉任务的Transformer模型,它在图像识别等计算机视觉任务中取得了出色的性能。Swin Transformer-based Supervised Hashing是基于Swin Transformer模型的一种监督哈希方法。在传统的哈希方法中,通常使用无监督学习或半监督学习的方式学习哈希函数,而Swin Transformer-based Supervised Hashing则利用监督信息来指导哈希函数的学习。具体来说,Swin Transformer

2023-06-23 20:22:55 362 1

原创 行人重识别

过程先定义一个映射也就是一个特称提取的 将图片空间映射到特征空间。由于深度网络的参数量巨大 在移动端运行吃力 需要进行压缩。再定义一个距离度量函数 在计算两个特征的距离。再通过最小化网络的度量损失 来优化映射。前端压缩(不会改变网络结构。通过大模型训练小模型。

2023-06-23 20:22:46 59 1

原创 yolov5项目目录结构

比如车牌分完类 再把字分类。

2023-05-27 17:05:38 52 1

原创 yolov5进阶

举个例子。

2023-05-25 20:46:42 3033 1

原创 yolov5 基础

他是根据置信度给出一个排名 precision 是预测从上到下一共n :有多少个true / n比如说 我要计算排名为3的precision 前面有2个true 那就是 2/3recall是 true / 样本数量。

2023-05-23 22:40:48 95

原创 深度学习知识复习

之前我们使用的数据集分成了训练数据和测试数据,训练数据用于学习, 测试数据用于评估泛化能力不能使用测试数据评估超参数的性能。这一点非常重要,但也容易被忽视。为什么不能用测试数据评估超参数的性能呢?这是因为如果使用测试数 据调整超参数,超参数的值会对测试数据发生过拟合。

2023-05-19 17:46:53 66

原创 哈希学习1

哈希的初衷是解决扩展性的问题 但是信息损失很大监督哈希表示学习依赖用户表亲啊提升系统精度 影响扩展性无监督哈希不依赖 具有良好的扩展性但是无监督哈希缺少明确的语义知道 影响哈希学习精度。

2023-05-18 17:58:25 102

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除