![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI
文章平均质量分 90
happiless
这个作者很懒,什么都没留下…
展开
-
超大图上的节点表征学习
一、图神经网络的挑战随着网络层数的增加, 计算成本呈指数增长保存整个图的信息和每一层每个节点的嵌入(embedding)需要消耗巨大的内存空间二、 Cluster-GCN的出现可能损失预测精度或者对提高内存的利用率并不显著无需保存整个图的信息和每一层每个节点的嵌入(embedding)2.1 概览1.利用图节点聚类算法将一个图的节点划分为c个簇, 每一次选择几个组的节点和边构造一个子图, 对子图进行训练2.由于利用图节点聚类算法划分多个簇, 所以簇内边的数量要比簇间边的数量要多得多原创 2021-07-02 01:36:19 · 167 阅读 · 0 评论 -
数据完整存储于内存的数据集类+节点预测与边预测任务实践
一、完全基于内存的数据集类InMemoryDataset基类简介import torchfrom torch_geometric.data import InMemoryDataset, download_urlclass InMemoryDataset(root: Optional[str] = None, transform: Optional[Callable] = None, pre_transfo原创 2021-06-28 01:11:16 · 291 阅读 · 0 评论 -
基于图神经网络的节点表征学习
获取并分析数据集dataset = Planetoid(root='./input/Cora', name='Cora', transform=NormalizeFeatures())print(f'dataset: {dataset}')print(f'number of graphs: {len(dataset)}')print(f'number of features: {dataset.num_node_features}')print(f'number of classes: {dat原创 2021-06-24 01:05:53 · 469 阅读 · 0 评论 -
GraphEmbedding与消息传递范式
一、GraphEmbedding1. DeepWalkDeepWalk在无向图上采用随机游走得到一个节点序列- d: embedding维度, γ\gammaγ: 迭代次数2. LINEDeepWalk在无向图上, LINE在有向图上适用于大规模的图上, 表示节点之间的结构信息一阶: 局部的结构信息二阶: 节点的邻居, 共享邻居的节点可能是相似的一阶二阶embedding训练完成之后, 直接拼接组合成一个embedding3. Node2vec同质性: BFS原创 2021-06-19 19:47:11 · 198 阅读 · 0 评论 -
简单图论与PyG环境配置
一、简单图论图的表示图用节点表示实体(entities ),用边表示实体间的关系(relations)通过邻接矩阵来构造图在无向图中,从结点 viv_ivi 到 vjv_jvj 的边存在,意味着从结点 vjv_jvj 到 viv_ivi 的边也存在。因而无向图的邻接矩阵是对称的。在无权图中,各条边的权重被认为是等价的,即认为各条边的权重为1对于有权图,其对应的邻接矩阵通常被记为 W∈{0,1}N∗NW \in \{0, 1\}^{N * N}W∈{0,1}N∗N,其中Wi,j=wijW原创 2021-06-14 22:15:26 · 539 阅读 · 6 评论 -
幸福感挖掘
一、学习知识点概要1.1 学习内容介绍阿里天池挖掘幸福感比赛入口: https://tianchi.aliyun.com/competition/entrance/231702/introduction1.2 学习目标通过学习能够挤进排行榜前5001.3 代码流程1.数据探索2.特征工程3.建模预测4.模型调参与融合二、学习内容1. 数据探索2. 特征工程import numpy as npimport pandas as pdpd.set_option('disp原创 2021-04-22 13:09:35 · 511 阅读 · 1 评论 -
基于LightGBM的分类预测
一、学习知识点概要1.1 LightGBM的介绍1). 2017年经微软推出,XGBoost的升级版2). 模型精度: 两个模型精度相当3). 训练速度: LightGBM训练的速度更快 => 1/104). 内存消耗: LightGBM占用内存更小 => 1/65). 特征缺失值: 两个模型都可以自动处理特征缺失值6). 分类特征: XGBoost不支持类别特征,需要对其进行onehot编码,而LightGBM支持类别特征LightGBM的主要优点: 1.简单易用。提原创 2021-04-16 23:57:12 · 2143 阅读 · 4 评论 -
基于XGBoost的分类预测
一. 学习知识点概要1.1 XGBoost的介绍优点1. 简单易用。相对其他机器学习库,用户可以轻松使用XGBoost并获得相当不错的效果。2. 高效可扩展。在处理大规模数据集时速度快效果好,对内存等硬件资源要求不高。3. 鲁棒性强。相对于深度学习模型不需要精细调参便能取得接近的效果。4. XGBoost内部实现提升树模型,可以自动处理缺失值。缺点:1. 相对于深度学习模型无法对时空位置建模,不能很好地捕获图像、语音、文本等高维数据。2. 在拥有海量训练数据,并能找到合适的深度学习模型时原创 2021-04-13 23:49:24 · 6033 阅读 · 10 评论 -
基于逻辑回归的分类预测
一. 学习知识点概要1. 逻辑回归的介绍与应用1.1 逻辑回归的介绍逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。而对于逻辑回归,最为突出的两点就是其模型简单和模型的可解释性强。逻辑回归模型的优劣势:优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;缺点:容易欠拟合,分类原创 2021-04-12 11:26:06 · 1553 阅读 · 0 评论