熠熠晨曦_
在读研究生|不断学习中……
展开
-
PGM-Explainer实验总结
PGM-Explainer建立了一个概率图模型,为GNN提供实例级解释。论文标题:PGM-Explainer: Probabilistic Graphical Model Explanations for Graph Neural Networks论文地址:2010.05788.pdf (arxiv.org)PGM-Explainer实验实验目的研究PGM-Explainer的有效性实验方案合成数据集的节点分类与其他解释器做对比实验使用六个合成数据集。每个输入图都是一个原创 2022-03-15 10:06:54 · 11354 阅读 · 0 评论 -
PGM-Explainer
PGM-Explainer建立了一个概率图模型,为GNN提供实例级解释。论文标题:PGM-Explainer: Probabilistic Graphical Model Explanations for Graph Neural Networks论文地址:2010.05788.pdf (arxiv.org)实验本节提供了我们的实验,比较了PGM-Explainer与现有GNN解释方法的性能,包括GNNExplainer[24]和我们将Shapley Additive Explai翻译 2022-03-15 10:06:25 · 630 阅读 · 0 评论 -
RelEx实验总结
RelEx结合代理和扰动的思想,研究节点分类模型的可解释性。论文标题:RelEx: A Model-Agnostic Relational Model Explainer论文地址:https://arxiv.org/pdf/2006.00305.pdfRelEx实验实验目的研究RelEx的有效性首先,研究RelEx在合成数据集上解释GNNs模型的有效性然后,研究RelEx在合成数据集上解释HL-MRFs模型的有效性其次,研究RelEx在真实数据集上解释GNNs模型的有效性最后,研究R原创 2022-03-15 10:05:32 · 2322 阅读 · 0 评论 -
RelEx
RelEx结合代理和扰动的思想,研究节点分类模型的可解释性。论文标题:RelEx: A Model-Agnostic Relational Model Explainer论文地址:https://arxiv.org/pdf/2006.00305.pdf实验用GNNS作为黑盒模型的合成关系数据集的实验我们构造了两种节点分类数据集:i)树网格,其中我们使用固定高度的二叉树作为基本结构,然后将多个网格结构连接到树上,通过在网格中的节点(称为网格节点)和树(树节点)之间随机添加噪声链接来连接多个网格翻译 2022-03-15 10:05:02 · 1342 阅读 · 0 评论 -
GraphLIME实验总结
GraphLime将LIME算法扩展到深度图模型,并研究不同节点特征对节点分类任务的重要性。论文标题:GraphLIME: Local Interpretable Model Explanations for Graph Neural Networks论文地址:https://arxiv.org/pdf/2001.06216.pdfGraphLIME实验实验目的研究GraphLIME的有效性。首先,研究GraphLIME能否过滤无用的特征并选择有用的特征作为解释。其次,研究GraphLI原创 2022-03-15 10:04:23 · 1730 阅读 · 1 评论 -
GraphLIME
GraphLime将LIME算法扩展到深度图模型,并研究不同节点特征对节点分类任务的重要性。论文标题:GraphLIME: Local Interpretable Model Explanations for Graph Neural Networks论文地址:https://arxiv.org/pdf/2001.06216.pdf实验在这一部分中,我们给出了使用两个真实世界的数据集来研究所提出的框架GraphLIME和现有的GNN模型解释方法的性能的实验。特别地,我们解决了以下三个问题:(翻译 2022-03-15 10:03:30 · 625 阅读 · 0 评论 -
图神经网络解释性问题综述
图神经网络的可解释性是目前比较值得探索的方向,这篇综述论文针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。作者还为GNN解释性问题提供了标准的图数据集和评估指标,将是这一方向非常值得参考的一篇文章。论文标题:Explainability in Graph Neural Networks: A Taxonomic Survey论文地址:https://arxiv.org/pdf/2012.15445.pdf图神经网络的解释性问题综述摘要在这篇论文中,作者对目原创 2022-03-15 10:02:26 · 3060 阅读 · 0 评论 -
网络表示学习
记录网络表示学习方面的一些基础知识表示学习表示学习是一种对于数据广义的特征表示数据特征表示网络结构邻接矩阵列表结构链表文本TF-IDF图像SIFTTF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF是词频(Term Frequency),IDF是逆文本频率指数(Inverse Document Frequency)SIFT,即尺度不变特征变原创 2022-03-15 10:01:09 · 1401 阅读 · 0 评论 -
通信序列熵笔记
简单记录下自己对通信序列熵概念的理解通信函数考虑了节点间的所有可能路径表征任意一对节点间的全局通信能力。通信矩阵矩阵中的每个元素都为通信函数表征所有节点间的通信能力通信序列通信序列P={P1,P2,P3,⋅⋅⋅,Pk,⋅⋅⋅,PM}P = \{P_1, P_2, P_3, · · · ,P_k, · · · , P_M\}P={P1,P2,P3,⋅⋅⋅,Pk,⋅⋅⋅,PM}序列P的长度为M=N(N+1)/2M = N(N + 1)/2M=N(N原创 2022-03-14 15:52:54 · 399 阅读 · 0 评论 -
谱分解笔记
简单记录些谱分解的基础知识矩阵的迹方阵的对角线之和相似矩阵设A,B为n阶矩阵,若有n阶可逆矩阵P存在,使得P^(-1)AP=B,则称矩阵A与B相似,记为A~B。A与B线性变换相同,基底不同若两个矩阵相似,则迹相同A的迹是特征值的和可对角化矩阵若n阶矩阵相似于对角矩阵,则矩阵为可对角化矩阵当A可被对角化时,与A相似的那个对角矩阵主对角线上的元素是A的特征值对称矩阵转置等于自身谱定理特征分解(谱分解)将矩阵分解为由特征值和特征向量表示的矩阵之积的方法需要注意只有对可对角化矩阵才原创 2022-03-14 15:51:47 · 553 阅读 · 0 评论 -
pytorch笔记
简单记录一些学习pytorch的前置基础知识知识基础线代+高数+数理统计python反向传播法核心:链式求导深度学习框架TensorFlow(Google)PyTorch(Facebook)过程数据集模型训练测试梯度下降法找模型中最佳W和B学习率α:W每次移动多少。小点更好。...原创 2022-03-14 15:49:34 · 1513 阅读 · 0 评论 -
矩阵分解笔记
简单记录一些矩阵分解方面的知识矩阵分解在网络结构上做随机游走得到节点链,然后输入word2vec,这两步实际上是做了隐式的矩阵分解对一个输入的网络结构进行矩阵分解,得到初始化的节点表示,然后再谱空间上进行传播操作,从而得到每个节点的向量表示...原创 2022-03-14 15:48:47 · 92 阅读 · 0 评论 -
图神经网络笔记
简单记录一些图神经网络笔记,后续学习深入后进行补充图神经网络 (GNN)抽象GNN基本操作与其邻居节点进行信息传递聚合邻居节点信息结合自身节点上层表达,生成本层节点表达原创 2022-03-14 15:47:25 · 314 阅读 · 0 评论 -
神经网络笔记
简单记录一些与神经网络有关的基础知识卷积公式图像的卷积操作图像是f 卷积核是g卷积的神经网络卷积价值:一个系统,输入不稳定,输出稳定,用卷积求系统存量一个卷积核可以规定一个像素点的周围像素点如何对它产生影响一个过滤器作用的卷积核可以规定一个像素点如何试探周围的像素点从而筛选图像的特征感.原创 2022-03-14 15:44:16 · 1226 阅读 · 0 评论