自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

nakaizura

悠闲地不定期更新多模态、搜索推荐、基础技术、前沿追踪的翔二

  • 博客(161)
  • 资源 (2)
  • 收藏
  • 关注

原创 对比学习用于推荐系统问题(SSL,S^3-Rec,SGL,DHCN,SEMI,MMCLR)

本篇博文继续整理推荐系统系列,更多文章可以参考博主的以往系列论文:推荐系统专栏。自监督学习在CV和NLP已经用的很多了,那很自然也会被迅速引进并占坑到推荐系统领域咯。而发掘推荐数据上的自监督信号,其实也是十分有利于推荐系统的,主要有以下优势:舒缓数据稀疏。一般来说推荐系统的数据集,有点击的监督数据不便于收集,非常少,而且高度稀疏化,因此通过自监督学习是可以对数据进行增强和扩增的;舒缓噪音干扰。不但数据集稀疏,而且比如点击数据存在误点错点击等等的现象,因此解决噪音干扰也是自监督学习可以提供的优势。舒

2021-11-26 20:14:44 6511

原创 图神经网络用于检索问题(GraphCM,FNPS,GRAPH4DIV)

本篇文章继续整理这个系列的文章,以前博主整理过的系列可以见:图神经网络用于推荐系统问题(PinSage,EGES,SR-GNN)图神经网络用于推荐系统问题(NGCF,LightGCN)图神经网络用于推荐系统问题(IMP-GCN,LR-GCN)这次更新最近SIGIR2021,博主自己刷过觉得还不错的几篇文章,分搜索和推荐两篇博文整理吧,这篇是关于检索的三篇文章。图神经网络用于推荐系统问题(SURGE,GMCF,TASRec)A Graph-Enhanced Click Model for

2021-11-25 23:13:59 2722 1

原创 图神经网络用于推荐系统问题(SURGE,GMCF,TASRec,MixGCF)

本篇文章继续整理这个系列Graph in Rec 的文章,以前博主整理过的系列可以见:图神经网络用于推荐系统问题(PinSage,EGES,SR-GNN)图神经网络用于推荐系统问题(NGCF,LightGCN)图神经网络用于推荐系统问题(IMP-GCN,LR-GCN)这次更新最近SIGIR2021,博主自己刷过觉得还不错的几篇文章。分搜索和推荐两篇博文整理吧,这篇是关于推荐的三篇文章。图神经网络用于检索问题(GraphCM,FNPS,GRAPH4DIV)Sequential Recom

2021-11-25 23:12:56 4808 1

原创 多模态信息用于推荐系统问题(MMDIN,hyperCTR)

继续续更之前的系列:多模态信息用于推荐系统问题(LOGO,MMGCN,MKGAT)。本期博文主要整理一下2021有意思的几篇文章。[CIKM2021] MultiHead MultiModal Deep Interest Recommendation Network首先是来自CIKM2021的文章,基于DIN模型的多模态信息优化。有关DIN模型不做赘述,传送门:注意力机制用于推荐系统问题(DIN,DIEN,BERT4Rec,PRM)。其主要是一种基于Attention的模型。本篇文章的作者认为现有的推荐

2021-11-25 23:11:31 3572

原创 Semantic Models for the First-stage Retrieval(检索召回技术综述)

Semantic Models for the First-stage Retrieval: A Comprehensive Review今天整理一篇来自TOIS 21’的First-stage Retrieval 第一阶段检索综述的文章。第一阶段检索即是国内一般成为召回的阶段recall stage,也有人称为ranking stage或者search stage,这篇综述文章内统一称为“第一阶段检索”。paper:https://arxiv.org/pdf/2103.04831.pdfcode.

2021-10-31 19:39:03 1300

原创 多模态预训练中的Prompt(MAnTiS,ActionCLIP,CPT,CoOp)

上一篇博文整理了预训练新范式(Prompt-tuning,Prefix-tuning,P-tuning),主要是围绕NLP上的成果,具体的概念本文也不做过多赘述。本篇文章将主要整理几篇有代表性的Prompt方法在多模态领域中的应用。Multimodal Conditionality for Natural Language GenerationPrompt用于Natural Language Generation多模态NLG任务。先从NLG任务过渡到Vision-language的应用吧,这篇文章主

2021-10-31 15:58:49 5727

原创 预训练新范式提示学习(Prompt-tuning,Prefix-tuning,P-tuning,PPT,SPoT)

「Prompt Tuning也许会是深度学习时代的Feature Engineering问题,如何给各大任务设计合理的Prompts将会是很有意思的科学问题」–刘知远虽然博主以前也看到了基于 Prompt-tuning 让GPT-3处理各种类型的任务,直接处理零样本和小样本学习能力。也整理过GPT,OpenAI CLIP,DALL-E 这些文章。但但但,没想到这个领域冲的好快,新范式、综述和应用都层出不穷,并且看到小伙伴的实验效果奇佳。便想重新整理一些文章,再重新认识一下Prompt-tuning!.

2021-10-31 15:55:01 20237 14

原创 Graph Structure Learning(图结构学习应用)

上一篇博文简要review了关于图结构学习的综述,本篇文章主要整理一下这几篇很有意思的工作,分别来自北邮团队的KDD20,AAAI20,WWW21,AAAI21。[KDD2020] AM-GCN: Adaptive Multi-channel Graph Convolutional Networks首先第一篇讨论GCN结构的动机在于:GCN从拓扑结构和节点特征中真正学习和融合了哪些信息?对于GCN来说,其关键步骤是特征聚合即节点从拓扑邻居中聚合得到特征信息。通过这种方式,特征信息可以通过网络拓扑传播到

2021-10-29 14:53:02 5752 1

原创 Graph Structure Learning(图结构学习综述)

Graph Structure Learning博主以前整理过一些Graph的文章,背景前略,但虽然现在GNN系统很流行,但其实大多数GNN方法对图结构的质量是有要求的,通常需要一个完美的图结构来学习信息嵌入。即,真的不是万物都可Graph的。比如图结构中的错误,误连,缺失或者拓扑不平衡都会导致噪声在图中传播,会极大地影响到效果,比如药物,社交等场景应用中。然而,图中噪声的普遍性却代表着,我们需要学习关于真实世界问题更鲁棒的表示。因此图结构学习(Graph Structure Learning, GSL

2021-10-29 14:43:38 10836

原创 Vision MLP(CycleMLP,Swin Transformer,ConvMixer,UniNet)

上一篇博文整理了Vision MLP(MLP-Mixer,RepMLP,ResMLP,gMLP,aMLP),这篇文章继续整理最近的一些文章。CycleMLP: A MLP-like Architecture for Dense Prediction现有MLP架构(比如MLP-Mixer、ResMLP、gMLP)均与图像尺寸/分辨率相关,导致它们难以向下游任务迁移。所以作者提出CycleMLP模型,即提出一种即插即用的新MLP架构CycleFC,模型架构如上,其可以直接替换Mixer里面的spatial

2021-10-29 14:39:44 2266

原创 Vision MLP(MLP-Mixer,RepMLP,ResMLP,gMLP,aMLP)

MLP–>CNN–>Transformer–>MLP天道好轮回。CNN家族和Vision Transformer博主已经整理过,不再赘述,本期博文主要整理Vision MLP范式的文章们。Do You Even Need Attention? A Stack of Feed-Forward Layers Does Surprisingly Well on ImageNet首先需要思考的问题是,当Transformer开始流行于视觉领域时,其注意力机制真的是保障图像分类任务性能的关键

2021-07-24 15:04:21 4477 4

原创 神经主题模型及应用(Neural Topic Model)

主题模型一般会从一组文档中抽取若干组关键词来表达文档的核心思想,即“主题”。首先看看最经典的概率主题模型,LDA模型。Latent Dirichlet Allocation具体来说它是三层贝叶斯概率模型,即认为每个文档的每个词都是通过“以一定概率选择某个主题,并从这个主题中以一定概率选择某个词汇”,所以包括两个分布:文档-主题分布,主题-词汇分布。对于每个文档,先从α\alphaα的Dirichlet分布中生成文档-主题分布θd\theta_dθd​。然后对于每个主题k,从β\betaβ的Di

2021-06-27 17:21:47 8114 1

原创 GPT plus money (OpenAI CLIP,DALL-E)

OpenAI 同时发布了两个连接文本与图像的神经网络,DALL·E 可以基于文本直接生成图像,CLIP 能够完成图像与文本类别的匹配。CLIP输入图片,输出文本描述。正因为是描述,所以可以在各种图像分类任务上进行zero-shot。模型架构分为两部分,图像编码器和文本编码器,图像编码器可以是比如 resnet50,然后文本编码器可以是 transformer。训练数据是网络社交媒体上搜集的图像文本对。在训练阶段,对于一个batch 的数据,首先通过文本编码器和图像编码器,得到文本和图像的特征,接着

2021-05-17 11:04:25 3523 1

原创 Intelligent information retrieval(智能信息检索综述)

智能信息检索最近看了超星上的微软关于搜索引擎和信息检索技术的一个课程:《智能信息检索》,这篇博文用于记录一些重点内容,详细课程可以去看raw video。1 search engine overview——system,algorithms and challenges搜索引擎主要流程如上图,从下到上主要有:Web-Crawler抓取网页。现有的网页总数超万亿,所以需要决定抓取哪些网页,并多长时间来更新网页(网页会有自己的更新与变动),特别是搜索公司只存快照(为了检索速度快,不可能对比所有网页

2021-04-29 20:33:42 3090

原创 Video Caption(跨模态视频摘要/字幕生成)

Video Caption视频摘要/视频字母生成属于多模态学习下的一个子任务,大体目标就是根据视频内容给出一句文字描述。所生成的caption可用于后续的视频检索等等,也可以直接帮助智能体或者有视觉障碍的人理解现实情况。典型的架构如上图(图自[ICCV2015] Sequence to Sequence – Video to Text,从视频帧到文本句子的端对端模型),该任务可以分解为两个子任务,一个是如何理解视频/多模态,并融合以得到更好的视觉表示,另一个是视频描述生成,如何得到质量高,甚至可控、稳.

2021-03-13 21:38:31 15063 4

原创 Multi-Label Image Classification(多标签图像分类)

Multi-Label Classification首先分清一下multiclass和multilabel:多类分类(Multiclass classification): 表示分类任务中有多个类别, 且假设每个样本都被设置了一个且仅有一个标签。比如从100个分类中击中一个。多标签分类(Multilabel classification): 给每个样本一系列的目标标签,即表示的是样本各属性而不是相互排斥的。比如图片中有很多的概念如天空海洋人等等,需要预测出一个概念集合。Challenge多标签

2021-03-13 18:35:13 27955 6

原创 图神经网络用于推荐系统问题(IMP-GCN,LR-GCN)

本篇文章follow一些Graph in Rec 的部分文章,以前博主整理过的系列可以见:图神经网络用于推荐系统问题(PinSage,EGES,SR-GNN)图神经网络用于推荐系统问题(NGCF,LightGCN)Interest-aware Message-Passing GCN for Recommendation来自WWW2021的文章,探讨推荐系统中的过平滑问题。从何向南大佬的NGCF开始一直强调的就是高阶邻居的协作信号是可以学习良好的用户和项目嵌入。虽然GCN容易过平滑(即叠加更多层

2021-03-03 17:08:09 8500 7

原创 知识图谱用于推荐系统问题(MVIN,KERL,CKAN,KRED,GAEAT)

应各位博客读者大佬的看得起…本篇文章继续整理这个lineup的后续,主要是2020年SIGIR,CIKM,RecSys的相关文章。关于以前博主整理过的知识图谱文章传送门:知识图谱用于推荐系统问题(CKE,RippleNet)知识图谱用于推荐系统问题(MKR,KTUP,KGAT)MVIN: Learning Multiview Items for Recommendation来自SIGIR2020的文章。现在有很多文章都在推荐系统中引入外部的知识来提升推荐系统的效果,但没有人考虑过多方面的it

2021-03-03 15:47:19 5792 3

原创 Learning to Pre-train Graph Neural Networks(图预训练与微调差异)

博主曾经整理过一篇图预训练的文章,此后有很多在Graph上做Pretraning的文章层出不穷,但基本上万变不离其宗,都是在node-level和graph-level上做自监督学习。Learning to Pre-train Graph Neural Networks这篇文章来自AAAI 2021。其核心的思想其实就是:如何缓解GNN预训练和微调之间的优化误差?首先作者论证了 GNN 预训练是一个两阶段的流程:Pre-traning。先在大规模图数据集上进行预训练。即对参数theta进行更新使其

2021-02-23 21:31:01 3598

原创 对比学习的应用(LCGNN,VideoMoCo,GraphCL,XMC-GAN)

之前已经有博文整理过了对比学习的概念,比较重要且流行的文章,和一些已经有的应用(主要是基于InfoNCE等早期的手段):Contrastive Learning(对比学习,MoCo,SimCLR,BYOL,SimSiam)对比学习的应用(CLCaption,C-SWM,CMC))本篇博文将继续整理一些对比学习的应用,主要是集中在MoCo和SimCLR等模型。Label Contrastive Coding based Graph Neural Network for Graph Classif

2021-02-23 17:57:47 5235 3

原创 Zero-Shot Image Retrieval(零样本跨模态检索)

上一篇博文简要整理了元学习和少样本学习,本篇文章重点整理几篇利用零样本学习做检索的文章。该问题的难度在于使用人类草图被用作查询以从不可见的类别中检索照片:草图和图片的跨模态域差异大。sketch只有物体的轮廓,与image相比只有很少的信息。由于不同人的绘画风格不一样,sketch的类内方差也很大。怎么适应大规模检索,适应从Unseen中检索出图片。A Zero-Shot Framework for Sketch Based Image Retrieval来自ECCV2018。主要是思想是利

2021-02-07 11:48:32 5196 4

原创 Meta-learning(元学习与少样本学习)

Meta-learning(元学习)虽然目前很多暴力堆算力堆数据的模型取得了很好的效果,但由于有些数据很难收集到,或者大量的标注耗费人力太多,关于元学习的研究也很多。特别是比如人类往往只需要通过少量数据就能做到快速学习,甚至不需要数据仅仅凭概念就可以完成推理。这种能力基本就属于元学习的范畴,或者机器学习领域中的zero-shot,few-shot learning了,首先看看概念:Meta-learning,元学习。学习怎么去学习。所谓“元”对应着人类在幼儿时期就掌握的对世界的基础知识和行为模式的理解

2021-02-06 17:12:42 5895

原创 Transformer变体(Routing Transformer,Linformer,Big Bird)

本篇博文继续前两篇文章进行整理,前两篇文章传送门:Transformer变体(Sparse Transformer,Longformer,Switch Transformer)Transformer变体(Star-Transformer,Transformer-XL)Efficient Content-Based Sparse Attention with RoutingTransformers和前两篇博文的目标一样,如何使标准Transformer的时间复杂度降低。Routing Trans

2021-02-01 20:56:49 5529 1

原创 Transformer变体(Sparse Transformer,Longformer,Switch Transformer)

不知不觉Transformer已经逐步渗透到了各个领域,就其本身也产生了相当多的变体,如上图。博主前一篇类似博文更新了 Transformer变体(Star-Transformer,Transformer-XL),本篇文章想整理一下这两篇很重要的Transformer变体,分别是Sparse Transformer and Switch Transformer。Explicit Sparse Transformer: : Concentrated Attention Through Explicit .

2021-02-01 17:43:45 3784

原创 异构图神经网络用于推荐系统问题(ACKRec,HFGN)

继续整理几篇SIGIR2020的Graph+Recommendation的论文,其他的一些论文整理可以看博主以往博文(传送门),本篇只整理两篇比较有意思的异构图+推荐的文章。Attentional Graph Convolutional Networks for Knowledge Concept Recommendation in MOOCs in a Heterogeneous View(ACKRec)背景是mooc上给学生推荐视频,实质还是rating预测。比较不一样的是为了处理稀疏问题+课程里

2021-01-24 21:47:59 5044

原创 Vision Transformer(iGPT,ViT,DERT,IPT,TransReID,TransGAN,TNT,CvT)

Transformer太过强大,目前有很多模型都将其引入自己的领域做调整,除了它最先发迹的NLP外,也初步的从NLP到达CV的战场。本篇只整理几篇在纯CV届的Transformer应用。博主曾经整理过Cross-modal的Transformer也可以参考,传送门:Cross-modal Pretraining in BERT(跨模态预训练)。首先先看看既然Transformer能在NLP中淘汰RNN,那么作为另一个神经网络基石级的CNN,是否也可以直接被替代呢?Generative Pretrain

2021-01-24 21:12:35 8887 2

原创 对比学习的应用(CLCaption,C-SWM,CMC,SGL)

Contrastive Learning,对比学习的一些理论概念博主已经在上篇文章整理了,传送门:Contrastive Learning(对比学习,MoCo,SimCLR,BYOL,SimSiam),本篇文章想整理几篇博主最近看到的比较有代表性的应用论文,话不多说直接开始。Label Contrastive Coding based Graph Neural Network for Graph Classification基于标签对比编码的图分类图神经网络。一般做图分类的方法也是先学图的表示,主要有

2021-01-24 18:00:49 2895

原创 多模态信息用于推荐系统问题(LOGO,MMGCN,MKGAT)

推荐已经成为许多在线内容共享服务的核心组成部分,从图像、博客公众号、音乐推荐、短视频推荐等等。与传统推荐不一样的地方,就是这些项目内容包含着丰富的多媒体信息-帧、音轨和描述,涉及多种形式的视觉、声学和文本信息。那么如此丰富的多媒体,多模态信息如何融合到推荐中呢?最普通也是最直接的方式可能就是对多模态抽特征,然后多模态融合直接作为side Information或者item的representation之后参与到推荐中的,这种暂时不整理吧,本篇博文主要整理两篇整合多模态信息到表示中的文章,不过一篇涉及到了G

2020-12-28 22:21:35 10661 20

原创 用户行为和属性用于推荐系统问题(MBGCN,AGCN,CML)

传统结合行为,基础属性,高级属性等等的side Information的方法会分连续型或离散型嵌入,然后当作一个分factor输入到推荐系统其他的部分中用于加强推荐的效果,最近看到SIGIR20’有两篇针对行为和属性的方法,且都用了Graph来做为解决方案,效果不错。主要是Graph的方法,涉及到图的更新和嵌入知识博主以往的文章已经更新过了,不做赘述。Multi-behavior Recommendation with Graph Convolutional Networks这篇文章主要是针对多行为对

2020-12-26 22:31:03 4744 5

原创 Diffusion Graph and Multi-hop Graph(扩散多跳图)

现有GNN网络基本都只从邻居聚合,虽然通过多阶多层的GNN之后可以得到远程信息,但其又免不了陷入过平滑等等的问题,那能否在单层GNN上就完成远程信息的聚合呢?Diffusion-Convolutional Neural Networks(DCNN)为了得到多跳(hop)的远程表示,那就直接对每一个节点都采用H个hop的矩阵进行表示,其中每一个hop都表示该邻近范围的邻近信息不就可以了?所以这个想法就如上图,图比较抽象,详细来说需要先定义,graph G的节点集合为V,边集合是E。所有节点的特征矩.

2020-12-26 18:17:34 4078 1

原创 Domain Adaptation(领域自适应,MMD,DANN)

Domain Adaptation现有深度学习模型都不具有普适性,即在某个数据集上训练的结果只能在某个领域中有效,而很难迁移到其他的场景中,因此出现了迁移学习这一领域。其目标就是将原数据域(源域,source domain)尽可能好的迁移到目标域(target domain),Domain Adaptation任务中往往源域和目标域属于同一类任务,即源于为训练样本域(有标签),目标域为测集域,其测试集域无标签或只有少量标签,但是分布不同或数据差异大,具体根据这两点可以划分为:homogeneous .

2020-12-26 17:03:22 35154 12

原创 Ad-hoc Video Search(AVS跨模态视频检索)

AVS任务也是跨模态检索中的一种,即对于给定的句子,尝试在视频库中检索出语义相关的内容。而跨模态相关的文章,博主已经在其他跨模态检索的文章中介绍过了。Ad-hoc和传统的视频检索任务不太一样,如它的名字ad-hoc一样,这其实属于推荐中的两者形态:ad hoc。类似于书籍检索。数据相对稳定不变,而查询千变万化。routing。类型与新闻推荐。用户兴趣稳定不变,但数据不断变化。一般的跨模态会有预定义语义标签,而AVS任务只能通过建模用户的 查询意图, 所以某种程度上它的难度更偏向于相似度匹配问题。

2020-11-15 20:23:34 3480

原创 Diversified Retrieval(多样性检索,MMR,DPP,VMIG)

多模态和跨模态的文章博主在之前的都整理过了,最近对多样性比较感兴趣,但是发现做这个方向的人确实太少了(虽然在推荐里面做的人还是挺多的)。暂时把目前看到觉得还不错的文章整理一下。Diversity在推荐系统的目标主要是Exploitation 和 Exploration。每一模块如上图,多样性在用户体验中还是十分重要的部分。其中的多样性可分为:个体多样性:从单个用户的角度来衡量的推荐系统多样性,主要考察系统能够找到用户喜欢的冷门项目的能力。(衡量方法仍然是item之间)总体多样性:主要强调对不同用

2020-11-15 19:40:43 5965

原创 Contrastive Learning(对比学习,MoCo,SimCLR,BYOL,SimSiam,SimCSE)

很多大佬认为,深度学习的本质就是做两件事情:Representation Learning(表示学习)和 Inductive Bias Learning(归纳偏好学习)。在表示学习方面,如果直接对语义进行监督学习,虽然表现很好,但是它需要很多的样本并且往往是需要对特定的任务进行设计,很难具有迁移性。所以难怪各位大佬们都纷纷为自监督学习站台,自监督是未来!自监督学习有大类方法,一个是生成方法一个对比方法,如上图。生成方法往往会对像素级损失进行约束,而对比学习在表示学习上做的事情就是,其实模型不必要知道关于.

2020-10-06 19:14:34 16803 1

原创 Deep Active Learning(深度主动学习)

Active Learning(主动学习)自主学习,可以理解为模型与人类专家之间的询问式学习,试图通过标记最少量的样本使得模型的性能收益最大化,这样可以减少很多人为的标定工作,只标模型需要的样本。具体怎么做呢?一图胜千言:大概的意思是:如果模型遇到了迷惑的地方,就主动的询问专家(这也是为什么要叫主动学习),然后由专家标定完,将这个标定了的新样本纳入到样本集中,再一起训练,这样可能逐步改善模型的困惑,同时一些模型已经学的很好的样本就不需要再标定(这思路和SVM某种程度挺像的)。具体捕捉是:先把一小.

2020-10-06 16:55:54 5205

原创 Person Re-Identification(ReID行人重识别)

ReID?ReID是图像检索的子任务,它主要的目的是:利用计算机视觉技术对特定行人进行跨视域匹配和检索。所谓跨视域即是图片来自于不同的摄像头,这样可以用于智能视频监控(如无人超市)、刑侦(追捕嫌疑人)、交管(追踪车辆等)等等应用场景。如上图,需要检索到同一个人(查询图像query)在各个摄像头下图片集(候选行人库gallery)的相关图片。困难点困难点主要在于ReID任务的跨视域特性有:摄像头分辨率不同拍摄角度不一 致光照条件不同背景变化大人体属于非刚性目标,外观会因姿态、遮挡、光照、.

2020-08-22 21:42:35 5192

原创 GPU Memory Problems in PyTorch(显卡爆炸与利用率不足)

如今研究人工智能,跑深度学习算法,显卡/GPU绝对是第一大门槛,所以不管您是1080Ti还是V100,如果不能发挥出GPU的最大能力,那它可能就是不是显卡而是块普通的砖头了吧。显卡爆炸显卡爆炸和内存的使用紧密相连,特别是在代码中对某些变量的不当使用,很有可能内存泄露,从而慢慢得导致显卡OOM(out of memory)。一般来说,计算模型时显存主要是模型参数 + 计算产生的中间变量,细分可以占用分四个部分:模型参数模型计算中间结果反向传播中间结果优化器额外参数但是如果模型出现显卡内存不足

2020-08-15 21:22:57 5719

原创 Graph Neural Network(GAE,GVAE,ARGA)

前面几次的整理GCN,GAT,GraphSAGE等等都适合在半监督,监督的场景下,而有没有图方法可以使用于在无监督的场景下使用呢?去发现节点的内在结果,挖掘隐藏关系如链接预测等等任务。答案是:自编码器(AE) /变分自编码器(VAE)+GraphGraph Auto-Encoders (GAE)GAE的目的是通过encoder-decoder 的结构去获取到图中节点的 embedding,然后再去做具体的下游任务比如链接预测。首先回顾一下自编码器,它是利用神经网络将数据逐层降维压缩,相当于让每层神

2020-08-09 17:21:10 13326 12

原创 Knowledge Graph Completion(知识图谱补全)

知识图谱补全算法能让知识图谱变得更加完整,按照能否处理新实体或者新关系,可以将知识图谱补全算法分成两类:静态知识图谱补全(Static KGC),该场景的作用是补全已知实体之间的隐含关系。仅能处理实体以及关系都是固定的场景,扩展性较差动态知识图谱补全(Dynamic KGC),涉及不止知 识图谱G中的实体或关系,该场景能够建立知识图谱与外界的关联,从而扩大知识图谱的实体集、关系集以及三元组集。可以处理含有新实体或者新关系的场景,能够构造动态的知识图谱,具有更好的现实意义虽然知识图谱能提供高质量的结

2020-08-09 15:01:10 20731

原创 Cross-modal Video Moment Retrieval(跨模态视频时刻检索综述)

这个方向的出的文章已经有很多了,但是似乎还没有一个统一一点的名字,叫 时域语言定位(Temporally Language Grounding),或者跨模态视频时刻检索/定位(Cross-modal Video Moment Retrieval/Localization)等等都有。大概给一个定义就是:给定一句自然语言描述的查询语句query,在未剪裁的完整视频中确定该描述发生的时间片段(起始时间,终止时间),简单来讲如上图,就是用一段文字查询具体的视频片段。它与纯的动作定位任务不同之处在于多了跨模态(文.

2020-07-13 17:54:21 14689 18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除