Explainable Reasoning over Knowledge Graphs for Recommendation

Explainable Reasoning over Knowledge Graphs for Recommendation

摘要

将知识图谱引入推荐中存在的问题

  • 未充分探索用于推断用户偏好的这种连接性
  • 对路径内的顺序性和整体语义建模方面存在不足

提出解决问题的模型

  • KPRN(知识感知路径递归网络),利用知识图谱做推荐

KPRN的核心

KPRN利用路径中的顺序依赖关系,我们可以在路径上进行有效推理,以推断用户与项目交互的基本原理。设计了一个新的加权池操作来区分连接用户和项目的不同路径的优势,使模型具有一定的可解释性。

数据集

  • 电影

    • MovieLens-1M和IMDb组合,MI
  • 音乐

    • KKBox

介绍

KG

用户与项目之间的连通性反映了它们
之间的潜在关系,这是对用户与项目交互数据的补充。
从KG派生的额外用户项连接信息使推荐系统具有推理能力和可解释性。

比对知识图谱做推荐之前的方法

  • 基于路径的方法

    作为实体类型的序列,不利用关于path的推理,而是使用user-item关联更新user-ite

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可解释的人工智能explainable artificial intelligence,XAI)是指能够解释其决策过程和推理结果的人工智能系统。它为对人类用户透明且理解机器学习模型的方法提供了一个框架,从而能够更好地预测和预防事故。 事故预测是一种利用人工智能技术来提前发现潜在危险和减少事故发生率的方法。具有XAI特性的人工智能系统可以通过解释其决策背后的原因和依据,为用户提供更多观察和理解其工作方式的机会。 通过XAI技术,人们可以更准确地了解AI系统在预测和预防事故方面所依赖的数据和算法,以及其对不同特征和变量的注意力分配。这种透明性使用户能够评估系统的准确性和可靠性,并提供反馈来改善系统。 通过XAI的可视化工具,用户可以观察和分析模型在特定情况下是如何做出预测的。例如,使用热力图可以显示模型对不同因素的关注程度,用户可以从中了解到模型如何识别事故风险因素,并进行相应的依据和干预。 在事故预测方面,XAI可以提供几个关键好处。首先,它可以帮助用户理解模型是如何基于数据进行学习,从而提高对模型性能的信任度。其次,XAI可以帮助用户发现模型的潜在偏差或漏洞,并提供改进的反馈。此外,XAI还可以促进与用户之间的互动和共享知识,提高模型的可持续性和普适性。 总之,可解释的人工智能在事故预测中起到重要的作用,它通过透明和理解机器学习模型的方法,使用户能够更好地预测和预防事故。这将有助于提高安全性、降低风险,并在快速发展的人工智能领域中建立信任和合作关系。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值