自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 【一文梳理】CUDA Toolkit版本,pytorch版本,硬件支持的最高CUDA Toolkit的关系

其中我们要选择的就是CUDA Toolkit的版本,这里我选择了11.8,高于我现在安装的CUDA Toolkit的版本11.2,所以这样是不可以的,我需要选择一个可以适配低于CUDA Toolkit 11.2的torch。在使用GPU进行深度学习的过程中,我们免不了与pytorch打交道,这时候就需要根据我们现有的硬件,选择版本合适的CUDA Toolkit,进而选择版本合适的pytorch。实际安装的CUDA Toolkit的版本要低于或者等于硬件支持的最高的CUDA Toolkit的版本。

2024-10-07 18:56:59 947

原创 【CUDA编程】cudaMemcpy函数的理解

cudaMemcpy是 CUDA 中用于在主机(CPU)和设备(GPU)之间复制内存的函数。

2024-10-06 20:02:30 451

原创 GNU Make utility和 Makefile 的关系

简而言之,GNU Make 是一个构建工具,而 Makefile 是指导这个工具如何工作的脚本。两者密切相关,共同作用于项目的自动化构建过程。

2024-09-24 19:04:54 298

原创 CMakeLists.txt文件与MakeFile文件的区别与联系

CMakeLists.txt 文件是 CMake(跨平台构建系统)的项目配置文件。它告诉 CMake 如何生成构建系统(例如 Makefile、Visual Studio 项目文件等)。Makefile 是 Make 工具使用的文件,用于控制编译和链接程序的过程。

2024-09-24 17:16:00 467

原创 【算法基础,简单易懂】对边际收益与次模函数的理解

**"the marginal gain"(边际收益)** 是指在向一个集合 $S$ 中添加一个元素 $v$ 所带来的函数值 $f$ 的增加量。是添加元素 $v$ 前后函数值的差异。因此,边际收益就是添加元素 $v$ 前后函数值的差异。在描述中,函数 $f$ 被称为**次模函数(submodular function)**,如果它满足一种自然的"收益递减"性质:对于任何一个元素 $v$ 和任意两个满足 $S \subseteq T$ 的集合 $S$ 和 $T$,向较小的集合 $S$ 中添加元素 $

2024-08-12 22:45:46 681

原创 【集合基础】集合中2^V(幂集)的含义

在数学和计算机科学中,$2^V$ 表示集合 $V$ 的**幂集**。幂集是指 $V$ 的所有子集的集合,包括空集和 $V$ 本身。

2024-08-12 22:40:32 818

原创 【英文论文写作】“表示”一词的同义词或者同义词组

在英文论文写作中,“表示”一词可以用多种不同的词语来表达,来避免重复用词与提升文章可读性,以下是一些常见的替代词:RepresentDenoteSignifyRefer toStand for具体的例子如下,下面的句子是对有向图的一些描述::另外,在英文论文写作中,表示“B伴随着A”的词组有:

2024-08-12 22:37:53 405

原创 【通俗易懂】集合与集合进行笛卡尔积的结果

集合与集合进行笛卡尔积的结果是一个新的集合,其中包含所有可能的有序对。对于两个集合 A 和 B,它们的笛卡尔积 A×B是由所有可能的有序对 (a,b) 组成的集合,其中 a 属于集合 A, b 属于集合 B。

2024-08-11 15:37:13 345

原创 【一学就会!】计算机科学中常说的dot-then-exponentiate是什么运算

dot-then-exponentiate” 是一种运算顺序,首先进行点积运算(dot product),然后对结果进行指数运算(exponentiation)。在数学和计算机科学中,尤其是机器学习和深度学习中,这种运算顺序经常出现。在某些情况下,softmax 函数也会使用类似的点积然后指数运算的步骤,将输入转化为概率分布。这种运算在神经网络的激活函数和概率模型中经常出现。例如,在逻辑回归模型中,线性组合。:对点积的结果进行指数运算,例如自然指数函数。本文还用softmax函数举例说明点积--指数运算

2024-08-11 15:30:44 420

原创 【通俗易懂】计算机术语中trivial和non-trivial是什么意思

计算机科学的术语中,non-trivial是“非平凡”,用来形容任何有意义的、非零的参数或者因子。trivial是“平凡的”,在计算机科学中,通常用来形容那些没有实际意义或非常容易实现的参数或者因子。

2024-08-11 15:27:03 557

原创 解释⊊的含义(包含于加下斜杠,直观上像不包含于)

比如A⊊B,即A是B的真子集,A中所有元素B中都有且A不可能是B本身。另外 ⫋ 也是真包含于的意思,现在普遍使用这个符号。比如A⊆B,即A是B的子集,A有可能是B本身。⊊ :真包含于(阅读论文的时候有可能出现)

2024-08-05 15:57:52 1385

原创 【计算理论,全面整理】P问题、NP问题、Sharp-P(#P)问题、Sharp-P-complete(#P-complete)问题、NP-complete问题和NP-hard问题

首先P问题、NP问题、NP-complete问题和NP-hard问题属于一条基础线上的几个问题,应该一起讲述(第一部分)。Sharp-P(#P)问题常常与NP问题放到一起讨论,应该在第二部分讲述。本博客旨在总结计算机研究中可能遇到的几类问题,以便已经学习过计算理论的同学在回顾知识的时候查阅。如果未学过计算理论,本博客对您的帮助可能不大。如果总结有错误,欢迎指出。

2024-08-05 15:50:38 588

原创 英文论文中的英文缩写

w.r.t. 是with respect to的缩写。意思是关于……方面,谈到……,提及……。i.e.意思是即,也就是。e.g.意思是举个例子来说。s.t.是subject to 的缩写。意思是使得...满足...,受...约束。resp. 单独用意思是分别的;放在括号里意思是相应的。

2024-07-29 19:30:42 384

原创 集合中{}的上标和下标表示什么

花括号\{\}表示这是一个集合。集合中的元素是⟨VqFq⟩⟨V_q,F_q⟩⟨Vq​Fq​⟩,其中每个元素都是一个二元组(或叫做配对,pair)。VqV_qVq​和FqF_qFq​分别是与qqq相关的两个实体或对象,具体内容取决于问题的背景。通过上标和下标的使用,可以更加精确地描述集合的特性和元素的构成,尤其在数学和计算机科学中,使用这种方式可以更清晰地表达复杂的概念和结构。

2024-07-29 10:22:48 719

原创 自我网络(Ego-Networks)的定义 - 通俗易懂

自我网络(Ego-Networks)是指以一个特定节点(称为“自我”或“ego”)为中心的子图,包含与该节点直接相连的所有节点(称为“alter”)以及这些节点之间的所有连接。自我网络通常用于分析特定节点在网络中的局部结构和关系。假设有一个社交网络,其中节点代表用户,边代表用户之间的友谊关系。某个用户A的自我网络将包括用户A(自我节点)、与用户A直接相连的所有朋友(替代节点),以及这些朋友之间的所有友谊关系。通过研究自我网络,可以了解特定用户的直接社交圈,分析用户的社交行为和影响力等。

2024-07-29 00:17:18 568

原创 图论基础 - Self-loop 对于度计算的影响

节点4的度为3:一条正常边(度为1)+一条self-loop边(度为2)节点1的度为4:两条正常边(度为1)+一条self-loop边(度为2)

2024-07-28 16:21:15 119

原创 无向图与有向图的平均度求解

无向图:计算总度数(即边的两倍),再除以节点数。公式为dˉ2mndˉn2m​。有向图:分别计算平均入度和平均出度,然后相加。总度数等于边的数量,入度和出度的平均值相同。公式为dˉ2mndˉn2m​。虽然两个公式在形式上看起来相似,但它们的计算方法和概念上的理解是不同的。无向图的度数直接计为连接的边数,而有向图的度数分为入度和出度两个部分。

2024-07-28 15:32:46 440

原创 对于诱导子图的理解

在图论中,“由某个集合诱导的子网络”指的是由给定集合中的顶点及其在原图中的所有边构成的子图。这一概念有助于研究图中某些特定顶点及其相互关系,而不考虑图中其他部分的复杂性。

2024-07-24 19:46:54 185

原创 Revisiting Citation Prediction with Cluster-Aware Text-Enhanced Heterogeneous Graph Neural Networks

这个定理展示了在异质网络中,通过组合简单的函数,我们能够构建出一个强大的模型来近似复杂的oracle函数,从而实现对目标节点标签的准确预测。定理中提到的神经网络结构(深度和宽度)以及1-Wasserstein距离的近似进一步说明了这种近似的有效性。:这个组合函数可以被视为一个前馈神经网络的梯度函数。这表明前馈神经网络具有强大的表示能力,可以通过足够深和宽的网络结构来近似任何复杂的函数。这意味着我们可以通过这些简单函数的组合来近似复杂的oracle函数。,通过这些函数的组合,可以构建一个新的组合函数。

2024-07-23 15:33:44 515

原创 权重矩阵W(l) 在图神经网络(GNN)中的意义

权重矩阵 \( W^{(l)} \) 在每一层中执行线性变换,将输入特征 \( H^{(l)} \) 转换为新的特征表示 \( H^{(l+1)} \)。权重矩阵 \( W^{(l)} \) 在图神经网络中扮演着至关重要的角色,通过选择和变换节点特征,捕捉特征间的关系,并生成与任务相关的特征表示。- **节点分类**:在节点分类任务中,权重矩阵会学习到能够区分不同类别节点的特征。- **特征融合**:通过线性变换和激活函数,权重矩阵使得节点特征不仅仅是简单的邻居特征求和,而是通过复杂的融合产生新的表示。

2024-07-22 22:25:44 367

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除