【再认识】认知智能下需要的实体知识与事件知识

本文探讨了知识图谱在认知智能中的作用,指出知识图谱通常仅保留实例层,忽视模式层,导致可解释性的挑战。认知智能需要层次性的实体和事件知识,目前更侧重于名词性实体的概括,而动词性事件的概括仍为空白。事件类图谱分为抽象事理图谱和领域事件图谱,两者融合是未来发展方向。实体性知识图谱与事件类图谱的融合将提高联通度和稠密度。
摘要由CSDN通过智能技术生成

1,知识图谱理想上双层结构,实际单层
知识图谱是个双层结构。模式层和实例层,模式层,又称为本体层,模式层分成两个部分,一个是概念的上下层级,另一个是概念之间的关系层或者概念的自身属性信息层。前者规定了概念类之间的类关系,赋予了概念之间可以继承的特性,后者定义了不同类自身的属性和关系变体。严格意义上来说,知识图谱中的模式层对数据项的取值是有严格定义的,例如数据库中的各种数据类型(字符串型、float型、list型),但这种做法在工业界往往用不到,因为充分适应这种数据类型的规定是非常需要费时费力的。在很多人的认知里,知识图谱就是知识三元组,仅保留实例层,这是现实中的大现实,因为这来的快,拿来就用。表面上看起来很舒服,搞上面这一层太费脑筋,而且有太多业务知识,很多人办不到,尤其是焦虑的工业界。
2,知识图谱是可解释性,也是个灾难。
知识图谱=可解释性,这种论断被炒的很火,不能说对,也不能说错,标杆在于对可解释的定义。大体认为知识图谱是可解释的是沿袭了“眼见为实”的思维,即,我看到的实实在在的东西,可以形式化的显示性地表达出来时,我才认为我可以把一个问题解释给对此毫无背景的人听。也就是看重的是一种过程性的符号佐证,一种缺乏思考能力和基础知识却想掌握某一现象的人来说的。而深度学习中学习到的系数或值缺少实际的物理意义,从而被认为是不了解释的,因为缺乏形式化。如果我们认可了这样一种标杆,那么也自然成立,但这种成立性带来了巨大的灾难,即可解释性的数据荒灾难,为了支持一个既定的事实,背后需要大量的知识作为支撑,但现在的规模是远远不够的,几千亿,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值