AAAI2020|结合时空信息的分层注意力网络在大规模社交网络中的应用

Mining Unfollow Behavior in Large-Scale Online Social Networks via Spatial-Temporal Interaction

Haozhe Wu, Zhiyuan Hu, Jia Jia, Yaohua Bu, Xiangnan He, Tat-Seng Chua

Tsinghua University, University of Science and Technology of China, National University of Singapore

http://hcsi.cs.tsinghua.edu.cn/Paper/Paper20/AAAI20-WUHAOZHE.pdf

线上社交网络依靠两种广泛分布的行为促成,即关注和取关,这两种行为分别对应关系创建和关系解除。

关于社交网络衍生的研究主要集中在关注行为,取关这种行为基本都是被忽略。对取关行为进行挖掘具有一定的挑战性,这种行为不仅由类似信息互惠这种用户属性的简单组合来决定,也会由比较复杂的交互关系来决定。

另外,之前的数据集很少包含足够的记录来推理复杂交互。为解决这些问题,作者们构建了大规模真实数据集 Weibo1,该数据集记录了详细的转发内容和180万中国用户的关系动态。

作者们对用户属性定义成两类,一类是空间属性,比如用户的社交角色,另一类是时间属性,比如用户的转发内容。利用构建的数据集,作者们对用户的时间和空间属性的交互作用对取关行为的影响进行了系统研究。

作者们提出一种新的带有异构信息的统一模型,UMHI,来预测取关行为。该模型能够通过社交网络结构来捕捉用户的空间属性,利用用户转发内容和取关历史来推理用户的时间属性,利用非线性MLP对用户的时空属性的交互进行建模。

实验结果表明,UMHI模型的准确率超出基准方法16.44%。另外,因子分析表明时空属性对于挖掘取关行为是必要信息。

取关图示如下

这篇文章的主要贡献如下

网络结构图示如下

时空属性的区别如下

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
AAAI 2020的教程“可解释人工智能”将重点介绍可解释人工智能的概念、方法和应用。可解释人工智能是指人工智能系统能够以一种可理解的方式解释其决策和行为的能力。该教程将涵盖可解释人工智能的基本原则和方法,包括规则推理、可视化技术、模型解释和对抗性机器学习等。 在教程,我们将首先介绍可解释人工智能的背景和意义,解释为什么可解释性对于人工智能的发展至关重要。然后,我们将深入探讨可解释人工智能的基本概念和技术,例如局部解释和全局解释。我们还将介绍一些关键的可解释性方法,如LIME(局部诠释模型)和SHAP(SHapley Additive exPlanations),并解释它们的原理和应用场景。 此外,我们还将探讨可解释人工智能在各个领域的具体应用,包括医疗诊断、金融风险管理和智能驾驶等。我们将分享一些成功的案例和实践经验,探讨可解释人工智能在实际应用的挑战和解决方案。最后,我们还将讨论未来可解释人工智能的发展趋势和挑战,展望可解释性在人工智能领域的重要性和前景。 通过参加该教程,学习者将能够全面了解可解释人工智能的概念、方法和应用,理解其在实际应用的重要性,掌握一些关键的可解释性技术和工具,并对可解释人工智能的未来发展有一个清晰的认识。希望通过这次教程,能够为学习者提供一个全面而深入的可解释人工智能学习和交流平台。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值