自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 Large Graph Models: A Perspective阅读笔记

总之,大量的研究工作已经致力于研究图形模型的各个方面,包括主干神经结构、预训练和后处理技术,如wel l作为新的趋势技术,如llm作为图形模型。然而,目前还没有明确的框架来有效地将这些技术集成到大型图模型中。因此,更多的努力 需要比较现有的方法和开发先进的模型。在这一努力中,自动图机学习技术[82],如图神经结构搜索,在r中很有价值 教育人力努力,加速试错过程。

2023-09-25 10:06:38 351 1

原创 CCF会议deadline查询小程序

首页展示每个会议的类别、CCF等级、截稿时间(已转为北京时间)和动态倒计时,按照截稿时间排序。可以搜索会议,或者按照类别和CCF等级筛选会议。点击某个会议,将进入会议详情页,多展示会议的全称、官网、举办日期和地点等。还可以一键在系统日历中添加日程提醒。

2023-03-04 11:15:23 2022

原创 CCF会议截稿信息汇总 CCF Conference Deadlines追踪神器

CCF会议截稿信息汇总 CCF Conference Deadlines追踪神器。可以方便搜索、排序、收藏和导出会议信息。

2023-02-01 02:02:36 794

原创 numpy抽样函数 np.random.choice用法详解

顾名思义,抽样函数,定义如下:def choice(a, size=None, replace=True, p=None):参数说明:a :待抽样的样本(一维数组或整数)size: 输出大小,默认返回单个元素replace : 抽样后的元素是否可重复,默认是p: 每个样本点被抽样的概率,默认均匀抽样举例如下:从[1,2,3,4,5]中随机抽三个元素,可重复,概率分别为[0.1,0.1,0.2,0.1,0.5]>>> a=[1,2,3,4,5]>&

2022-05-21 21:00:19 4527

原创 Zotero——论文管理神器

论文管理神器Zotero使用教程

2022-05-10 21:47:57 12504 6

原创 NIPS2020——Debiased Contrastive Learning 详细解读

论文及补充材料链接 :Debiased Contrastive Learning代码:https://github.com/chingyaoc/DCL摘要:自监督表示学习的一个突出技术是对比语义上相似和不同的样本对。在没有访问标签的情况下,不同的(负的)点通常被认为是随机抽样的数据点,隐含地接受这些点实际上可能具有相同的标签。也许并不令人意外,我们观察到,在有标签的合成设置中,从真正不同的标签中采样负的例子可以提高性能。基于这一观察结果,我们开发了一个去偏对比目标,以校正相同标签数据点...

2022-05-03 17:31:25 2222 1

原创 WWW2021 Interpreting and Unifying Graph Neural Networks with An Optimization Framework 阅读笔记

论文:interpreting and Unifying Graph Neural Networks with An Optimization Framework代码:https://github.com/zhumeiqiBUPT/GNN-LF-HFB站视频:https://www.bilibili.com/video/BV1Fh411Q7x7摘要:图神经网络(GNNs)在广泛的图结构数据学习中受到了相当多的关注。设计良好的传播机制是gnn最基本的组成部分。虽然大多数gnn基本上遵循...

2022-04-29 17:24:11 417

原创 SCAN:Stacked Cross Attention for Image-Text Matching 阅读笔记

摘要:本文研究了图像-文本匹配的问题。推断对象或其他显著事物之间潜在语义对齐。和句子中相应的单词可以捕捉视觉和语言之间细粒度的相互作用,并使图像-文本匹配更容易解释。之前的工作要么简单地聚合所有可能的区域和单词对的相似性,而不不同地关注越来越不重要的单词或区域,要么使用多步骤注意过程来捕获有限数量较少的语义对齐。在本文中,我们提出了堆叠交叉注意,利用图像区域和单词作为上下文来发现句子的完整潜在排列,并推断图像-文本相似性。我们的方法在MSCOCO和Flickr30K数据集上实现了最先进的结果。在Flickr

2021-05-23 21:18:30 877

原创 GCNH:Graph Convolutional Network Hashing 阅读笔记

GCNH:Graph Convolutional Network Hashing 阅读笔记摘要:摘要——最近,基于图的通过亲和力图学习保持相似性的二进制码的哈希算法在大规模图像检索中得到了广泛的研究。然而,大多数基于图的哈希方法诉诸于棘手的二进制二次程序,使它们无法扩展到大量数据。在本文中,我们提出了一种新的基于图卷积网络的哈希框架,称为GCNH,它直接在图像集和图像集上建立的亲和图上进行光谱卷积操作,自然产生保持相似性的二进制嵌入。GCNH与传统的图哈希方法有根本的不同,后者采用亲和图作为目标函数中唯

2021-04-25 12:57:14 1255 2

原创 SDML:Scalable Deep Multimodal Learning for Cross-Modal Retrieval 阅读笔记

SDML:Scalable Deep Multimodal Learning for Cross-Modal Retrieval 阅读笔记2019--SIGIR--有代码摘要:跨模态检索以一种类型数据作为查询来检索另一种类型的相关数据。大多数现有的跨模态检索方法都被提出以联合方式学习一个共同的子空间,在整个训练过程中必须涉及来自所有模式的数据。对于这些方法,不同模态特定变换的最优参数相互依赖,在处理来自新模态的样本时,必须对整个模型进行重新训练。本文提出了一种新的跨模态检索方法,即可伸缩深度多模态学

2021-04-23 19:42:07 775 3

原创 SVHN:Separated Variational Hashing Networks for Cross-Modal  Retrieval 阅读笔记

SVHN:Separated Variational Hashing Networks for Cross-ModalRetrieval 阅读笔记摘要:跨模态哈希由于其低存储成本和高查询速度,已成功地应用于多媒体检索应用中的相似性搜索。它将高维数据投影到一个共享的同构哈明空间,具有相似的二进制代码的语义相似数据。在某些应用中,由于某些隐私、秘密、存储限制,以及计算资源限制,可能不能同时获得或训练所有的模式。然而,大多数现有的跨模态哈希方法都需要所有的模式来共同学习公共的汉明空间,从而阻碍了它们无法处..

2021-04-23 11:02:34 212

原创 GCH:Graph Convolutional Network Hashing for Cross-Modal Retrieval 阅读笔记

GCH:Graph Convolutional Network Hashing for Cross-Modal Retrieval 阅读笔记摘要:基于深度网络的跨模态检索最近取得了重大进展。然而,弥合模率差距以进一步提高检索精度仍然是一个关键的瓶颈。在本文中,我们提出了一种图卷积散希方法,它通过亲和图学习模态统一的二进制码。构建了一个端到端深度体系结构:一个语义编码器模块、两个特征编码网络和一个图形卷积网络(GCN)。我们设计了一个语义编码器作为一个教师模块,来指导特征编码过程。学生模块,为语义信息的利

2021-04-21 00:22:30 906 5

原创 跨模态搜索——MAP计算过程

跨模态搜索——MAP计算过程1.汉明距计算:公式:解释:不同的位数越多,汉明距越大代码:def calc_hamming_dist(B1, B2): q = B2.shape[1] #哈希码位数 if len(B1.shape) < 2: B1 = B1.unsqueeze(0) distH = 0.5 * (q - B1.mm(B2.t())) #计算汉明码距离 公式4 return distH输入:B1: [1,

2021-04-04 16:38:27 692 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除