基于图的在线社区假新闻检测建模

论文原文:Graph-based Modeling of Online Communities for Fake News Detection

论文代码:GitHub - shaanchandra/SAFER: Repository containing the official code for the paper Graph-based Modeling of Online Communities for Fake News Detection.

1. 作者构建了一个由两种节点和边组成的异构图,并在半监督图学习设置中将它们建模在一起。2. 作者没有进行用户分析,而是计算社区范围的社交上下文特征,这在之前没有相关工作调查过在线社区在假新闻检测中的作用。3. 为了获得社区的作用,作者仅使用了有关用户网络的信息,而不使用用户个人资料中的个人信息。4. 由于没有使用用户个人资料信息,如地址,种族,性别。因此它们不会学习将特定人群与特定的在线行为联系起来。

方法:

构建community graph

        对于每一个数据集,都创建了一个异构community graph,其中包括两种节点:用户节点N_u和文章节点N_a。文章节点a \in N_a由二进制词袋(BOW)向量表示即a=[w_1,w_2,...,w_{|v|}],其中|v|是词汇的数量,w_i \in \{0,1\}。用户节点u \in N_u由二进制 BOW 向量表示,该向量是在他们共享的所有文章上构造的:u = [a_1|a_2|...|a_M],其中|表示逐位与操作,M表示用户分享的文章总数。接下来,我们添加两种类型的无向边:1. 如果用户在推文/转发了文章,则在用户和文章节点之间添加边(因此文章节点可以连接到多个用户节点)2. 如果两个用户节点之间在Twitter上互相关注,则在两个用户节点之间添加无向边。

        作者在“最活跃的N个用户”(HealthStory 的 N=20K,GossipCop 的 N=30K)上进行了操作。为了避免频繁使用的用户使模型产生偏见,我们排除了在任一类中分享超过 30 百分比文章的用户。在GossipCop数据集上,最终的图有29962个用户节点,16766个文章节点和超过1.2M条边。

SAFER:虚假新闻检测架构

        提出的框架(详见下文,如图 1 所示)在其中采用了两个组件,即基于图形和文本的编码器,其工作可以分为两个阶段:训练和测试。

图1: SAFER 框架的可视化表示。图形和文本编码器是独立训练的,然后是逻辑回归 (LR) 分类器的训练。在推理过程中,文章的文本以及有关其用户社交网络的信息分别由经过训练的文本和图形编码器进行编码。最后,使用经过训练的LR分类器将文章的社会背景和文本特征连接起来进行分类。

         训练阶段:首先在数据集上分别训练图编码器和文本编码器。文本编码器的输入是文章的内容,并且其被训练成一个文章分类器用于区分文章是否是虚假信息。训练后的文本编码器生成基于文章内容的文本特征S_t \in R^{d_t}其中d_t是文本编码器的隐藏维度。图编码器是一个图神经网络,把community graph作为输入。GNN 使用来自文章节点的监督损失进行训练,该损失反向传播到网络的其余部分。经过训练的 GNN 能够生成一组用户嵌入,U_g = \{u_1, u_2,...,u_m\}其中u_i \in R^{d_g}d_g是图编码器的隐藏维度,且m是与文章交互的用户数量。然后,通过归一化和将这些用户表示聚合成一个固定大小的向量,s_g = (\sum _{i=1} ^m u_i)/m,s_g \in R^{d_g}其中s_g表示表章的社会上下文特征。文章的最终社会上下文感知表示计算为 S_{safer} = s_g \oplus s_t\oplus是串联运算符。这种聚合形式有助于 SAFER 保留每个表示形式编码的有关共享内容不同方面的信息。最终,s_{safer}被用于训练逻辑回归分类器。直观地说,经过训练的文本编码器从内容中捕获对任务至关重要的语言线索。同样,经过训练的图形编码器会根据用户的内容分享模式和社交关系,学习将用户分配到隐式在线社区。

        测试阶段:为了将未知的内容分类为虚假或真实,SAFER将文章的文本以及与之交互的用户网络作为输入。然后,它遵循与上面详述的相同的过程来生成待验证测试文章的社会上下文感知表示,s_{safer}并使用经过训练的 LR 分类器对其进行分类。

文本编码器

作者在SAFER中尝试了两种不同的架构作为文本编码器:

卷积神经网络(CNN):作者在文档上采用了句子级编码器Kim(2014)。该模型使用多个不同大小的一维卷积滤波器,这些滤波器通过在文章的长度上滑动来聚合信息。最终的固定长度文章表示是通过对特征图进行最大随时间变化的池化获得的。

BoBERTa:作为我们主要的文本编码器,我们微调了transformer编码器结构RoBERTa Liu et al. ( 2019b),并将其用于文章类别分析。RoBERTa 是一种使用动态掩码进行预训练的语言模型。具体来说,我们用它来编码每篇文章的前 512 个token,并使用 [cls] 标记作为文章嵌入进行分类。

图编码器

我们尝试了六种不同的 GNN 架构来生成用户嵌入,详情如下:

图卷积网络(GCN):GCNs Kipf and Welling (2016)把一个由其邻接矩阵A \in R^{n * n}n表示图中节点数,度矩阵D其中D_{ii} = \sum _j A_{ij},和特征矩阵F \in R^{n*m}(包含节点的 m -维特征向量的特征矩阵)定义的图 𝒢 作为输入,GCN 在第i个卷积层的递归传播步长由下式给出:O^i = \sigma (\widetilde{A}O^{i-1}W^i),其中σ表示激活函数,\widetilde{A} = D^{-\frac{1}{2}}A D^{-\frac{1}{2}}是度归一化的邻接矩阵,W^i \in R^{t_{i-1}*t_i}是第i层卷积层的权重矩阵,O^{i-1} \in R^{n*t_{i-1}}表示前面卷积层的输出, ti是第i层中隐藏单元的个数,其中t_0 = m

Graph Attention Networks (GAT):GAT

GraphSAGE:GraphSAGE

Relational GCN/GAT:https://doi.org/10.48550/arXiv.1703.06103

Hyperbolic GCN / GAT:HGCNHNN

  • 19
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

在下跳跳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值