文章提出KGCN模型,其是一个基于知识图谱的推荐模型,从知识图谱的邻域中进行采样,作为节点的感受野。对感受野进行拓展,也就是邻域节点可以继续拓展,进而扩大感受野,实现多跳。
一、问题描述
假设有m个用户U={u1,u2,u3,...,um},n个项目V={v1,v2,v3,...,vn}
定义一个交互矩阵Y,Y的大小为m*n。Yij表示用户ui和项目vj之间的交互,其值为1表示该用户访问或者购买了该项目。
文章使用的知识图谱G是一个三元组(h,r,t),h和t是知识图谱的头部和尾部,r是关系。
模型的输入是交互矩阵Y,知识图谱G。目的是预测用户ui与项目vj交互的概率。
其中 是模型参数
二、KGCN层
已知项目为vj,定义实体集合N(v)其表示直接连接到vj的其他实体。对于实体集合中的两个实体ei,ej,定义rei,ej表示这两个实体之间的关系。定义函数g表示用户和关系rei,ej
其表示关系r对用户u的重要性。对于N(v)中的每个实体e,其和项目vj的关系得到r,继而得到r和用户u的关系。将这些得到关系进行正则化,就可以得到实体e,e和项目v的关系r和用户u的关系。
也就是说,我们得到了项目vj的邻域中相对于目标用户,各个实体的打分。接下来进行聚合
在知识图谱中,不同项目v其邻域的数量不同,因此对于每个项目都进行同意选取固定数量的邻居。将采样后的邻居集合成为S(v),利用该集合计算得到v(u)(S(v))。将其和实体v进行聚合。
文章中提出了三种聚合方式,sum,concat,Neighbor 。
对于sum方式,其计算方式为:
w和b是权重和偏置,为非线性函数,比如relu。
算法伪代码:
H是感受野深度,也就是聚合迭代次数。对于给定的项目v,首先利用Ger_Receptive_Field逐层计算感受野M【h】表示经过h层有多少实体。其计算方式为上一层实体和第h层的邻域实体的集合。
然后开始聚合。先计算上一层的打分情况,将打分情况和实体进行聚合就得到该层的实体。利用最终得到的实体和用户u联合计算概率。
利用梯度下降进行更新。损失函数:
J是交叉熵损失函数。P表示负采样。文章中Tu=v:yuv=1。
users:用户数 items:项目数 interactions:用户和项目的交互概率
entities:实体数 relations:有多少种关系 KG:多少个三元组
K:寻找邻居数 d:维度 H:迭代次数 :损失函数正则化系数
n:学习率
三、代码分析
数据集是movieslens 20m。用户和实体嵌入维度为32,寻找4个邻居,迭代两次。
1. 数据预处理
- main():创建对象,解析参数,确定数据集。构建了三个字典:entity_id2index,relation_id2index,item_index_old2new。
- read_item_index_to_entity_id_file():将用户id和项目id更改为连续id。,item_index_old2new[用户id]=i,entity_id2index[]
- convert_rating()得到最终的交互信息
- convert_kg()得到最终的知识图谱三元组
2.加载数据
- loader_data():主函数 返回n_user(用户数), n_item(项目数), n_entity(实体数), n_relation(关系数), train_data(训练数据), eval_data(验证数据), test_data(测试数据), adj_entity, adj_relation(两个邻接矩阵)。
- load_rating():读取用户和实体的交互信息。利用dataset_split()方法按照6:2:2的比例划分为训练集,验证集,测试集。统计用户数和实体数(使用set集合)
- dataset_split():划分数据集
- load_kg():读取知识图谱。统计实体数,关系数。利用construct_kg()方法构建知识图谱。利用construct_adj()构建邻接矩阵。
- construct_kg():将头节点和尾节点反别作为key构建字典。对于每个三元组。先以头节点为key,尾节点和关系作为值。再以尾节点为key,头节点和关系作为值。\
- construct_adj():两个矩阵adj_entity,adj_relation。对于一个实体,利用adj_entity得到他的四个邻居,adj_relation得到他的四个邻居和该实体的关系。都是随机选取。
3.模型构建
构建KGCN类:
def get_initializer():
return tf.contrib.layers.xavier_initializer() # 权重初始化 返回初始化权重矩阵
-
_parse_args(self, args, adj_entity, adj_relation) 解析参数
-
_build_inputs 使用占位符,构建输入。输出初始化的user_indices,item_indices,lables
-
_build_model(n_user, n_entity, n_relation) # 构建模型,在此生成embeddding user_emb_matrix(用户矩阵,大小:用户数*32)、entity_emb_matrix(实体矩阵,大小:实体书*32)、relation_emb_matrix(关系矩阵,大小:关系数*32)。
利用tf.nn.embedding_lookup初始化user_embeddings
利用get_neighbors获得实体和关系
利用aggregate函数进行聚合
聚合后得到的分数和实体进行聚合,tf.reduce_sum
最后利用sigmoid求概率
-
get_neighbors:获取邻居,得到v(u)(S(v)),其中利用aggregate进行聚合
- aggregate():聚合实体和关系。利用类Aggregate
4.聚合类
构建Aggregate类