GraphGeo
文章平均质量分 88
路由跳变
这个作者很懒,什么都没留下…
展开
-
用MATLAB求解微分方程
常微分方程的MATLAB求解分为解析解、数值解原创 2024-03-07 15:41:11 · 2284 阅读 · 0 评论 -
龙格-库塔法
可以发现:在计算量想当时,亚当姆斯法 的计算结果更加接近 准确值(解析解),而且其计算量也比龙格-库塔法少。没有泰勒展开到二阶导数的,所以精确值-近似值就会出现二阶导数的部分,二阶导数的部分为。在用4阶龙格-库塔法时,可以适当增大步长h,减少计算容量,一般精度也不会损失很少。阶越大,局部误差就越小,近似值就越接近精确值,但同时运算量更大。,根据这个规律特征,可以推出后续更高阶的龙格-库塔法)。的次数是龙格-库塔法的阶,也是局部截断误差的阶。,步长取的越小,运算精度越高,但运算量增大。原创 2024-03-07 15:00:51 · 1320 阅读 · 0 评论 -
中位数(median)、均方根误差(RMSE)与平均绝对误差(MSE)
标准差:是方差的算数平方根,是用来衡量一组数自身的离散程度。(2)原创 2024-03-07 11:16:53 · 957 阅读 · 0 评论 -
GraphGeo参文2:Fourth-Order Runge–Kutta(四阶RK方法)
四级 RK 方法是数值积分微分方程用的最多的一种方法。其他的类似,括号里表示时间取值,例如。我们如果按照下面定义变量。的非线性项取值,最终。原创 2024-03-05 19:26:44 · 148 阅读 · 0 评论 -
变分推断中的ELBO(证据下界)
变分推理的目标是近似潜在变量(latent variables)在观测变量(observed variables)下的条件概率。解决该问题,需要使用优化方法。在变分推断中,需要使用到的一个重要理论,是平均场理论。原创 2024-03-05 14:34:35 · 1099 阅读 · 0 评论 -
GraphGeo参文3:Neural ordinary differential equations(概率分布变换的连续形式归一化流)
我们引入了一种新的深度神经网络模型家族。我们没有指定一个离散的隐藏层序列,而是使用神经网络参数化隐藏状态的导数。该网络的输出是用一个黑盒微分方程求解器来计算的。这些连续深度模型具有恒定的内存成本,可以根据每个输入调整其评估策略,并可以明确地用数值精度换取速度。我们在连续深度剩余网络和连续时间潜变量模型中证明了这些特性。我们还构造了连续的归一化流,一个生成模型,可以通过最大似然进行训练,而不需要对数据维进行划分或排序。对于培训,我们展示了如何通过任何ODE求解器可伸缩地反向传播,而不访问其内部操作。原创 2024-03-05 10:30:00 · 1623 阅读 · 0 评论 -
GraphGeo参文13:Modelling of IP Geolocation by use of LatencyMeasurements(传统的归一化流)
使用尽可能多的必要但尽可能少的地标和分布良好的地标来达到一个高度精确的位置估计的困境,可以被认为是地标问题[7],[10]。如果不可能进行直接匹配,则我们选择参考主机作为实际的地标,它最接近计算出的中心节点的位置。通过进行的多延迟,我们得到了多个位置的云,其中目标位置的估计如图7所示。目前的技术提供的关于解决这个问题的信息较少,而且使用了不精确的模型。优化的地标选择和先进的调制的结合,提高了IP地理定位的精度。这种曲线的参数p、q、n和m是未知的,应该单独计算每个地标,因为它们在网络拓扑中的独特位置。原创 2024-03-04 14:28:08 · 970 阅读 · 0 评论 -
GraphGeo参文19:Auto-Encoding Variational Bayes
【前言】:VAE模型是Kingma(也是Adam的作者)大神在2014年发表的文章,是一篇非常非常经典,且实现非常优雅的生成模型,同时它还为bayes概率图模型难以求解的问题提供了一种有效的思路。论文原名为Auto-Encoding Variational Bayes,是一种通用的利用auto-encoding方法结合variational lower bound求解bayes图模型隐变量的方法论。而VAE(Variational Auto-Encoding)是在该方法论下的一个具体示例。原创 2024-03-04 12:50:32 · 679 阅读 · 0 评论 -
图卷积网络(GCN)
这是在GCN领域最经典的论文之一。我们可以根据这个GCN的图看到,一个拥有C个input channel的graph作为输入,经过中间的hidden layers,得到F个 output channel的输出。(注意本文讲的图都特指无向无权重的图。论文中采用的函数如下:刚开始看的时候,都会被吓到!这个函数未免也太抽象了。但是我们先了解一下它在起的作用,然后再从头一步一步引出这个公式,以及为什么它起到了这些作用。原创 2024-01-23 18:59:55 · 1317 阅读 · 0 评论 -
GraphGeo参文8:SLAPS: Self-Supervision Improves StructureLearning for Graph Neural Networks
图神经网络高度依赖图结构,当图的结构存在一定的噪声时,图神经网络的性能将会打大打折扣。如果想要获得好的性能,一个好的干净的图结构是必要的。这篇论文作者提出了一种同时学习GNN参数和邻接矩阵的模型。目标是在下游任务上性能最大化时也优化图的结构。总的来看,本文主要贡献是通过自监督任务来辅助分类任务,以学习高质量的邻接矩阵。原创 2024-02-22 22:09:13 · 636 阅读 · 0 评论