自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 SimGCL: graph contrastive learning by finding homophily in heterophily

这两个节点的特征相似程度,而FDP是依次计算节点的每个维度的特征相似程度。通过在实验中计算这两种相似性,作者试图说明节点的特征相似性和特征分布模式相似性对于节点属于相同类别的判断具有指导作用。在实验结果中,作者观察到,考虑到特征分布模式相似性后,同类别节点对的特征相似性提高,这表明特征分布模式相似性能够放大节点相似性的差距,有助于更准确地找到同类别的节点对。这证明了特征相似性和特征分布模式相似性可以提高图或区域的同质性,有助于更好地捕捉同类别节点的相似性信息。

2024-01-28 16:12:36 183 1

原创 损失函数L对参数w和b的梯度如何计算,当w为多维时

这里的data_iter函数中的1为batch_size,我想看一下w的梯度到底怎样求的,X原来是(10,1)现在我取batch_size=1,说明我只提取他的第一行也就是([[0.7145,-0.9413]])这样不管W是(1,1)还是(10,1)或者size=(3,2),我们都能知道W的grad为什么有时候是size=(1,2)的tensor,因为L对W里的每一个小参数都求了偏导,同理求b的偏导也一样的方法。所以得到的L的size=(1,2),而W==这里X的size=(2,2),设X=

2023-06-01 22:39:54 283 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除