本文主要对Richpedia: A Large-Scale, Comprehensive Multi-Modal Knowledge Graph这篇论文中的 第2.2节Richpedia images processing (图像处理)以及 第2.3 Richpedia relation discovery(关系挖掘)进行内容抽取介绍,最后介绍了一下关于这篇多模态知识图谱文章的2个具体用例,,也是防止我忘记自己曾看过这篇论文,,,记一记啊记一记或许还有救…
Richpedia: A Large-Scale, Comprehensive Multi-Modal Knowledge Graph
个人理解:这篇文章其实就是主要讲解了多模态知识图谱Richpedia的构建过程,主要介绍了包括对KG实体、图像实体的数据获取,以及对图像实体的去噪处理和多样性检测的方法(用K-means聚类算法),和关系挖掘等内容。当然还有其他内容,见目录结构
1.摘要部分
介绍了Richpedia,旨在通过向Wikidata中的文本实体分发足够多的不同图像来提供全面的多模态知识图谱。基于Wikipedia中的超链接和描述,在图像实体之间设置资源描述框架链接(视觉语义关系)。Richpedia资源可通