SimonChenHere
PhD Candidate,计算机本,人工智能硕,网络安全博。
展开
-
[异构图-论文阅读]Heterogeneous Graph Transformer
异构图被用来抽象和建模复杂系统,其中不同类型的对象以各种方式相互作用。许多现有的图神经网络(GNNs)主要针对同构图设计,无法有效表示异构结构。HGT通过设计节点和边类型相关的参数来模拟异构注意力,从而允许HGT为不同类型的节点和边保持专用的表示。通过使用HGSampling(异构小批量图采样算法),HGT能够有效和可扩展地处理Web规模的图数据。在Open Academic Graph上的实验显示,HGT在各种下游任务上一致优于所有最先进的GNN基线。原创 2023-09-27 16:18:50 · 2390 阅读 · 0 评论 -
智能合约异常检测调研-从机器学习模型的角度
此ppt是我在21年10月做的一次关于区块链的报告。原创 2022-03-21 16:00:40 · 13902 阅读 · 0 评论 -
Beyond Saliency map
Interpretation of Neural Networks Is Fragile这篇论文通过加“扰动”在original image上,使用saliency map“看的东西”发生变化,以此证明,interpretation of nn is fragile。原创 2021-09-08 17:44:42 · 170 阅读 · 0 评论 -
图神经网络(GNN)综述
A Comprehensive Survey on Graph Neural Networks一、什么是图神经网络?在过去的几年中,神经网络的兴起与应用成功推动了模式识别和数据挖掘的研究。许多曾经严重依赖于手工提取特征的机器学习任务(如目标检测、机器翻译和语音识别),如今都已被各种端到端的深度学习范式(例如卷积神经网络(CNN)、长短期记忆(LSTM)和自动编码器)彻底改变了。曾有学者将本次人工智能浪潮的兴起归因于三个条件,分别是:计算资源的快速发展(如GPU)大量训练数据的可用性深度学习从欧氏转载 2020-11-14 14:06:12 · 1703 阅读 · 0 评论 -
GNN的资料
???? What-Is-Graph-Neural-Network?This project aims to collect all knowledge points related to graph neural network (basic knowledge, key points analysis of the paper, etc.).前言有关图网络的中文资料太少了 ???? 本项目意在收集所有与图神经网络有关的知识点(基础知识、论文要点解析等)。????独木不成林,独林不成森。如果您有想原创 2020-10-20 10:28:55 · 290 阅读 · 0 评论 -
Neural Motifs: Scene Graph Parsing with Global Contex
待续Scene Graph Generation做的是预测物体之间的关系的原创 2020-10-22 08:53:59 · 442 阅读 · 0 评论 -
【共生性】CVPR 2019:Multi-Label Image Recognition with Graph Convolutional Networks
通常来说,一个图片里的不同物体具有共生性,所以建模label dependencies可能提升识别性能。为了捕捉和探索这个重要的dependencies,本文作者提出了基于Graph Convolutional Network (GCN)的多标签分类模型。在object labels上构建一个有向图,each node is represented by word embedding of a label, GCN 将label graph 映射到一组相互依赖的物体分类器,embedding-to-cl原创 2020-10-21 13:47:45 · 552 阅读 · 0 评论 -
Graph Embedding图嵌入
图嵌入旨在通过保留图的网络拓扑结构和节点内容信息,将图中顶点表示为低维向量,以便使用简单的机器学习算法(例如,支持向量机分类)进行处理。许多图嵌入算法通常是无监督的算法,它们可以大致可以划分为三个类别,即矩阵分解、随机游走和深度学习方法。...原创 2020-10-16 09:30:34 · 300 阅读 · 0 评论 -
沈伟华:图神经网络的三连问
图神经网络的高表达能力,必要吗?有没有必要构造一个高表达能力的图神经网络?当我们知道这个表达能力给我们理解GNN的能力提供了一个理论上的gap,即知道什么事情能干,什么事情不能干。GNN是不是把图映射到一个实值空间提供了一个approximator(近似器)呢?如果是,只要是一个图,只要我对它做分类或者做啥,都可以用GNN来做一个通用的表达,以后就再也不用考虑表达能力的问题来,就如同深度神经网络做现在的任务,我们从来不考虑表达能力的问题一样,因为它已经打下很基础的基石了,剩下只要关心泛化能力就行了,原创 2020-10-15 16:12:02 · 203 阅读 · 0 评论 -
有哪些指标可以描述两个图(graph)的相似度?
https://www.zhihu.com/question/57269332?from=profile_question_card原创 2020-10-15 16:10:49 · 1669 阅读 · 1 评论 -
The Learning route of GNN
The Learning route of GNNCHEN JIENote:图神经网络的相关实战教程及其缺乏,如有看到相关内容,可以添加到群在线文档之中。图神经网络基础知识台大李宏毅的GNN课(很通俗易懂,较为推荐)链接:(1/2) https://www.youtube.com/watch?v=eybCCtNKwzA&ab_channel=Hung-yiLee (2/2)https://www.youtube.com/watch?v=M9ht8vsVEw8&t=1原创 2020-10-15 10:45:11 · 499 阅读 · 1 评论 -
GNN&&蛋白质
GraphDTA: prediction of drug–target binding affinity using graph convolutional networks原创 2020-10-14 09:04:22 · 377 阅读 · 0 评论 -
Randomly Wired Neural Networks
A Neural architecture search paper published by FAIR. This paper explore a novel way to look at how we can generate different neural network architectures specifically based on random network generation algorithms from graph theory.many neural architect原创 2020-10-13 15:03:39 · 226 阅读 · 0 评论 -
Exploring Randomly Wired Neural Networks for Image Recognition
In traditional connnection is the models how computational network wired is crucial to build intelligent machines. In the early days of AI, pioneers including Turing, Minsky, Rosenblatt all have randomly wired machinesHere we show serveral neural networ.原创 2020-10-02 16:52:19 · 154 阅读 · 0 评论 -
Graph Structure of Neural Networks何凯明团队
two mirrors :global mirror and local mirror , at the high level ,they capture different structural propertties of graph.在CIAFAR10上做了一个benchmark,得到一个heat map of NN performance against the graph mirrors, we train 4000 MLP models with different graph struc.原创 2020-09-29 20:55:26 · 709 阅读 · 0 评论 -
【NeurIPS2020】Google点针图网络,Pointer Graph Networks
关键词:图的搜索空间,图结构推测,点针传递图神经网络(GNNs)通常应用于静态图,这些静态图可以认为是预先已知的。这种静态输入结构通常完全由机器学习从业者的洞察力决定,对于GNN正在解决的实际任务可能不是最佳的。在缺乏可靠的领域专家知识的情况下,人们可能求助于推断潜在的图结构,但由于可能的图的搜索空间很大,这往往是困难的。这里我们引入了点针图网络(PGNs),它增加了集合或图的推断边的能力,以提高模型的表达能力。PGNs允许每个节点动态地指向另一个节点,然后通过这些点针传递消息。这种可适应图结构的稀疏性.原创 2020-09-28 08:57:36 · 704 阅读 · 0 评论 -
网络表示学习算法综述
摘要:网络是一系列节点和边的集合,通常表示成一个包含节点和边的图。许多复杂系统都以网络的形式来表示,如社交网络、生物网络和信息网络。为了使网络数据的处理变得简单有效,针对网络中节点的表示学习成为了近年来的研究热点。网络表示学习旨在为网络中的每个节点学习一个低维稠密的表示向量,进而可将得到的向量表示运用到常见的网络分析任务中,如节点聚类、节点分类和链路预测等。然而,绝大多数真实网络节点都有丰富的属性信息,如社交网络中的用户资料和引文网络中的文本内容。网络的属性信息对网络表示具有重要的作用,当网络高度稀疏时,原创 2020-09-25 08:18:42 · 734 阅读 · 0 评论 -
基于上下文化图注意力网络的知识图谱的条目推荐
Contextualized Graph Attention Network for Recommendation with Item Knowledge Graph摘要:近年来,图神经网络(GNN)被应用于知识图谱(KG)的开发。现有的基于GNN的方法在KG中对实体与其本地图上下文之间的依赖关系进行了建模。,但可能无法有效地捕获其非局部图上下文(例如,它的一阶邻居的集合),最相关的高阶邻居集)。在本文中,我们提出了一个新的推荐框架——上下文化的图注意网络(CGAT),它可以显式地利用KG中实体的局部和原创 2020-09-07 08:06:49 · 597 阅读 · 0 评论 -
Graph Embedding:word2vec更进一步?
word2vec和由其衍生出的item2vec是embedding技术的基础性方法,但二者都是建立在“序列”样本(比如句子、推荐列表)的基础上的。而在互联网场景下,数据对象之间更多呈现的是图结构。参考材料,详细解读见链接。深度学习中不得不学的Graph Embedding方法1.经典的Graph Embedding方法——DeepWalk归纳:DeepWalk是根据原始用户的用户行为序列,根据每一个用户的行为序列构建成“物品相关图”,之后采取随机游走的方式随机选择起始点,重新产生物品序列。最后这些转载 2020-09-06 08:51:15 · 345 阅读 · 0 评论 -
专有词汇
1.GNNnode degree图论:节点度节点度是指和该节点相关联的边的条数,又称关联度。in-degree入度对于有向图,节点的入度是指进入该节点的边的条数out-degree出度对于有向图,节点的出度是指从该节点出发的边的条数导管$1节点度...原创 2020-09-05 20:45:43 · 207 阅读 · 0 评论 -
2019 fall CS224w:01-intro
1. 如何建模将现实问题建模成图神经网络的结构是非常重要的,要指定代表node,什么来代表edge。有些问题,如社交网络,蛋白质结构这种有很独特和明显的grapy结构。还有些如NLP中的文本,CV中的图片并没有明显的Grapy结构,(就需要一些直觉和实验来建模)对于given domain和建模成的Grapy Network之间的连接的设计决定来可以研究的问题。...原创 2020-09-05 20:17:47 · 158 阅读 · 0 评论 -
论文schedule
ICLR2020Pre-training Text Encoders as Discriminators Rather Than Generators.https://github.com/Drchen-AI/electrahttps://openreview.net/pdf?id=r1xMH1BtvB近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时原创 2020-07-11 11:35:45 · 323 阅读 · 0 评论 -
图神经网络的可解释性
模型的可解释性是机器学习领域的重要研究课题,主要关注两个方向,一个是提升模型本身的可解释性,如引入注意力机制、解耦表示学习等技术;另一个是对黑盒模型的事后解释,如特征掩码技术、可视化技术等。图结构提供了额外的拓扑信息,也对可解释技术提出了更高的要求。第一个工作是Research Track的《XGNN: Towards Model-Level Explanations of Graph Neural Networks》,关注黑盒模型的事后解释,提出了一种基于输入优化的图神经网络事后解释方法。论文第二个原创 2020-09-05 08:52:43 · 3162 阅读 · 0 评论 -
什么是Weisfeiler-Lehman(WL)算法和WL Test?
https://zhuanlan.zhihu.com/p/90645716原创 2020-09-04 09:27:05 · 1878 阅读 · 0 评论 -
[斯坦福]距离编码-更为强大的GNN
论文代码解读参考:https://zhuanlan.zhihu.com/p/213810192原创 2020-09-03 15:00:17 · 765 阅读 · 0 评论 -
图神经网络基准,NTU Chaitanya Joshi
简介近期的大量研究已经让我们看到了图神经网络模型(GNN)的强大潜力,很多研究团队都在不断改进和构建基础模块。但大多数研究使用的数据集都很小,如 Cora 和 TU。在这种情况下,即使是非图神经网络的性能也是可观的。如果进行进一步的比较,使用中等大小的数据集,图神经网络的优势才能显现出来。在斯坦福图神经网络大牛 Jure 等人发布《Open Graph Benchmark》之后,又一个旨在构建「图神经网络的 ImageNet」的研究出现了。近日,来自南洋理工大学、洛约拉马利蒙特大学、蒙特利尔大学和 MI转载 2020-09-02 09:17:57 · 225 阅读 · 0 评论 -
GNN必要性
图表不仅仅提供了一个优雅的理论框架。它们提供了一个数学基础,我们可以在此基础上分析、理解和学习现实世界的复杂系统。在过去的25年里,可供研究人员使用的图形结构数据在数量和质量上有了显著的增长。随着大型社交网络平台的出现,大量的科学活动对交互体建模,食物网,分子图结构的数据库,以及数十亿网络连接设备的出现,有意义的图数据供研究人员分析。挑战在于释放这些数据的潜力。https://www.zhuanzhi.ai/vip/02c30a13161f37e8e361b30767c7cb8b...原创 2020-08-30 10:03:19 · 162 阅读 · 0 评论 -
PPT:A Lexicon-Based Graph Neural Network for Chinese NER
原创 2020-07-25 12:54:03 · 860 阅读 · 0 评论 -
GNN4NLP-Papers
GNN4NLP-PapersA list of recent papers about GNN methods applied in NLP areas.TaxonomyFundamental NLP TasksIncorporating Syntactic and Semantic Information in Word Embeddings using Graph Convolutional Networks. Shikhar Vashishth, Manik Bhandari, Prate转载 2020-07-13 11:08:39 · 1392 阅读 · 0 评论 -
消融实验
“消融研究”这一术语的根源于20世纪60年代和70年代的实验心理学领域,其中动物的大脑部分被移除以研究其对其行为的影响。在机器学习,特别是复杂的深度神经网络的背景下,已经采用“消融研究”来描述去除网络的某些部分的过程,以便更好地理解网络的行为。举例:举个例子:Girshick及其同事描述了一个由三个“模块”组成的物体检测系统:第一个使用选择性搜索算法提出图像区域,在该区域内搜索物体。进入一个大的卷积神经网络(有5个卷积层和2个完全连接的层),进行特征提取,然后进入一组支持向量机进行分类。为了更好.原创 2020-07-12 21:58:30 · 2313 阅读 · 0 评论 -
9 | Spatial-based GNN/convolution模型之GIN
GIN (Graph Isomorphism Network)上面图的红色字说mean pooling分辨不出来,其实是mean pooling和max pooling都分辨不出,具体的其他内容看图就知道了。为什么是sum pooling?原创 2020-07-09 21:13:47 · 538 阅读 · 0 评论 -
8 | Spatial-based GNN/convolution模型之GAT(受欢迎)
GAT (Graph Attention Networks)这里GAT就是不仅仅做weighted sum,而且这个weighted 还要让模型自己学,和之前的开始固定好的。这里aggregation方法就是:对邻居做attention。这里的weight是用energy来表示,符号eee...原创 2020-07-09 21:00:30 · 327 阅读 · 0 评论 -
7 | Spatial-based GNN/convolution模型之GrapySAGE
GrapySAGE这个模型的aggregation是用的LSTM是把邻居的feature喂到一个LSTM里面,然后最后把其hidden state当作output,用来update,LSTM处理的是sequential data,但grapy中的一个node的邻居没有顺序可言,所以用LSTM做的时候,LSTM就会从所有邻居node中随便sample 出一个顺序,每次update都会sample出不同的顺序,所以最后就可能学到“忽略顺序的影响”,最后可以学到一个比较好的representatio原创 2020-07-09 20:49:12 · 238 阅读 · 0 评论 -
GNN资料收集
Transformers是一种图神经网络https://zhuanlan.zhihu.com/p/147707275原创 2020-07-09 14:30:56 · 163 阅读 · 0 评论 -
6 | Spatial-based GNN/convolution模型之MoNET
MoNET (Mixture Model Networks)原创 2020-07-09 00:21:09 · 880 阅读 · 0 评论 -
5 | Spatial-based GNN/convolution模型之DGC
DGC (Diffusion Graph Convolution)其和DGCC很像,DGCC是用concate把很多层连在一起,DGC是之间add加在一起。原创 2020-07-09 00:17:50 · 524 阅读 · 0 评论 -
4 | Spatial-based GNN/convolution模型之DCNN
DCNN (Diffusion-Convolution Neural Network )和其他的GNN模型的不同的核心就是Aggregation(聚合)和readout的不同。**注意⚠️:**这里update时候加的feature都是i输入层input layer里的feature。aggregation怎么做如图公式和文字所述。将每一层(不包括输入层)的每一个node的feature排起来形成一个矩阵,则很多层之后则如图所示。下面是readout代表整个grapy的feature。.原创 2020-07-09 00:04:01 · 490 阅读 · 0 评论 -
3 | Spatial-based GNN/convolution模型之 NN4G
本文介绍属于的Spatial-based GNN/convolution类型的NN4G模型原创 2020-07-08 23:39:33 · 1751 阅读 · 0 评论 -
2 | Spatial-based GNN/convolution 概念
把CNN的卷积操作generalize到GNN里,怎么弄?卷积的操作实际上就是 需要update的“地方”借助于和其相邻的邻居(也包括自己)来update。对于spatial-based GNN/Convolution也是一样,借助相邻的node的feature(也包括自己)来update该节点,以过渡到对应的hiddenstate。如(h30h^0_3h30----->h31h^1_3h31);这个操作在GNN里叫做Aggregation(聚合)(CNN中叫convolution.原创 2020-07-07 00:11:10 · 606 阅读 · 0 评论 -
GNN论文合集
https://github.com/thunlp/GNNPapers原创 2020-07-07 00:02:53 · 814 阅读 · 1 评论