Python图嵌入信息潜在表征算法

30 篇文章 0 订阅
7 篇文章 0 订阅

📜用例

📜Python社群纽带关系谱和图神经 | 📜C++和Python通信引文道路社评电商大规模行为图结构数据模型 | 📜角色图嵌入学习 | 📜图全局结构信息学习 | 📜图编码解码半监督学习 | 📜富文本表征学习 | 📜法律文本内容语义学习

✒️Python提取图节点嵌入信息

图可以定义为 G = (V, E),其中 V 是一组节点,E 是一组边。 边是两个节点之间的连接,例如节点A和D有一条边。 另外,重要的是要注意图可以是有向图或无向图。 例如,下面的图是无向的,因为 A 与 D 连接,D 与 A 连接。还有一件事,图可以获取不同的节点属性以及边属性,但就我们的目的而言,今天并不重要。

B
A
D
C
E

现在我们或多或少知道了图是什么,我们可以尝试从图中提取节点嵌入。

假设您需要解决如下场景:

  • 我们在社交网络中进行用户交互,我们需要预测两个用户何时连接。节点代表用户,边代表两个用户是“朋友”。 (链接预测任务)
  • 我们有一个研究出版物的引用网络,我们需要预测每个出版物的主题。节点代表出版物,边代表从一份出版物到另一份出版物的引用。 (节点预测任务)
  • 我们有一组蛋白质,可分为酶或非酶。节点代表氨基酸,如果两个节点相距小于 6 埃,则通过边连接它们。 (图分类任务)

对于所有提到的任务,我们需要有节点的表示。因此,如果我们需要运行机器学习算法,我们需要将图结构转换为向量空间。

💦 算法一:

随机游走是一种将图转换为节点序列以训练此模型的方法。 基本上,对于图中的每个节点,模型都会生成连接节点的随机路径。 一旦我们有了这些节点的随机路径,它就会训练此模型来获得节点嵌入。

出于学习目的,请在下面找到该算法的实现,请注意该代码尚未准备好用于大规模应用,可以进行一些并行化和内存改进。

import networkx as nx
import random
import numpy as np
from typing import List
from tqdm import tqdm


class DWk:
    def __init__(self, window_size: int, embedding_size: int, walk_length: int, walks_per_node: int):
        self.window_size = window_size
        self.embedding_size = embedding_size
        self.walk_length = walk_length
        self.walk_per_node = walks_per_node

    def random_walk(self, g: nx.Graph, start: str, use_probabilities: bool = False) -> List[str]:
       
        walk = [start]
        for i in range(self.walk_length):
            neighbours = g.neighbors(walk[i])
            neighs = list(neighbours)
            if use_probabilities:
                probabilities = [g.get_edge_data(walk[i], neig)["weight"] for neig in neighs]
                sum_probabilities = sum(probabilities)
                probabilities = list(map(lambda t: t / sum_probabilities, probabilities))
                p = np.random.choice(neighs, p=probabilities)
            else:
                p = random.choice(neighs)
            walk.append(p)
        return walk

    def get_walks(self, g: nx.Graph, use_probabilities: bool = False) -> List[List[str]]:
       
        random_walks = []
        for _ in range(self.walk_per_node):
            random_nodes = list(g.nodes)
            random.shuffle(random_nodes)
            for node in tqdm(random_nodes):
                random_walks.append(self.random_walk(g=g, start=node, use_probabilities=use_probabilities))
        return random_walks

    def compute_embeddings(self, walks: List[List[str]]):
    
        model = Word2Vec(sentences=walks, window=self.window_size, vector_size=self.embedding_size)
        return model.wv

💦算法二:

该算法使用深度优先搜索和广度优先搜索算法的组合来提取随机游走。 这种算法组合由两个参数 P(返回参数)和 Q(输入输出参数)控制。

基本上,如果 P 很大,随机游走也会很大,所以它会进行探索,如果 P 很小,我们会停留在本地。 Q 也会发生类似但相反的行为,如果 Q 很小,它将进行探索,如果 Q 很大,它将停留在本地。

我们可以使用 PyTorch 几何测试算法。 该库实现了一系列图神经网络架构和方法来加速 GNN 的工作。 为了测试它,我将使用 Pytorch 几何上提出的教程的一小部分。 为此,他们使用 Cora 数据集。 Cora 数据集包含 2708 份科学出版物,分为七类。 引文网络由 5429 个链接组成。 数据集中的每个出版物都由 0/1 值词向量描述,指示词典中相应词的不存在/存在。该词典由 1433 个独特单词组成。

from torch_geometric.nn import Node2Vec
import os.path as osp
import torch
from torch_geometric.datasets import Planetoid
from tqdm.notebook import tqdm

dataset = 'Cora'
path = osp.join('.', 'data', dataset)
dataset = Planetoid(path, dataset)  # dowload or load the Cora dataset
data = dataset[0]
device = 'cuda' if torch.cuda.is_available() else 'cpu'  # check if cuda is available to send the model and tensors to the GPU
model = Node2Vec(data.edge_index, embedding_dim=128, walk_length=20,
                 context_size=10, walks_per_node=10,
                 num_negative_samples=1, p=1, q=1, sparse=True).to(device)

def train():
    model.train() 
    total_loss = 0
    for pos_rw, neg_rw in tqdm(loader):
        optimizer.zero_grad() 
        loss = model.loss(pos_rw.to(device), neg_rw.to(device))  
        loss.backward()
        optimizer.step() 
        total_loss += loss.item()
    return total_loss / len(loader)


for epoch in range(1, 100):
    loss = train()
    print(f'Epoch: {epoch:02d}, Loss: {loss:.4f}')

all_vectors = ""
for tensor in model(torch.arange(data.num_nodes, device=device)):
    s = "\t".join([str(value) for value in tensor.detach().cpu().numpy()])
    all_vectors += s + "\n"

with open("vectors.txt", "w") as f:
    f.write(all_vectors)

with open("labels.txt", "w") as f:
    f.write("\n".join([str(label) for label in data.y.numpy()]))

模型训练完成后,我们将为图中的每个节点提供一个嵌入,每个嵌入将为 128 维。 训练结束后,我们可以保存嵌入,并在嵌入投影仪中查看表示与标签相比有多“好”。 为此,我使用 T-SNE 算法将 128 维数据减少到 3 维数据,以便我们可以绘制它。

参阅一:计算思维

参阅二:亚图跨际

  • 23
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值