Task14学习第15章 规则学习

目录

 

第15章 规则学习模型

15.1 基本概念

15.2 序贯覆盖

15.3 剪枝优化

15.4 一阶规则学习

15.5 归纳逻辑程序设计(ILP)

15.5.1 最小一般泛化(LGG)

15.5.2 逆归结

15.6 阅读材料


第15章 规则学习模型

15.1 基本概念

“规则”通常指语义明确,能描述数据分布隐含的客观规律或领域概念,可写成“若..则..”。

与其他黑箱模型相比,规则学习具有更好的可解释性。
绝大多数人类知识都能通过数理逻辑来进行刻画,因此便于引进领域知识。

符合一条规则的样本称为被该规则“覆盖”

当同一个示例被判别结果不同的多条规则覆盖时,称发生了冲突
解决冲突的方法称为冲突消解,包括投票法、排序法、元规则法。

一般都要设置默认规则,来处理规则集合未覆盖的样本。

命题规则VS一阶规则(关系型规则) p348

15.2 序贯覆盖

规则学习最直接的做法是“序贯覆盖”,即逐条归纳。
每学到一条规则,就将该规则覆盖的样本去掉,以剩下的样例继续训练。
由于每次只处理一部分数据,所以也被称为“分治”策略。

基于穷尽搜索的做法
例子:p350。

但现实中会因为组合爆炸而不可行。
通常有两种策略:
自顶向下(生成-测试) vs 自底向上(数据驱动)

前者是从一般的规则开始,逐渐添加新文字,是规则逐渐“特化”的过程
更容易产生泛化性能较好的规则。
对噪声鲁棒性强。
例子p351-352。
可每次采用多个最优文字来避免过于贪心。

后者是从特殊的规则开始,减少文字,是“泛化”的过程。
更适用于训练样本较少。

15.3 剪枝优化

规则生成本质是一个贪心搜索过程,需要缓解过拟合。
最常见做法是剪枝

预剪枝 vs 后剪枝

CN2算法的预剪枝。借助了统计性检验。

REP的后剪枝,O(m^4)。
IREP O(m log^2 m)
著名的规则学习算法 RIPPER 后处理机制,将R中所有规则再进行一次优化,就是通过全局的考虑来缓解了贪心算法的局部性。

15.4 一阶规则学习

通常很难定义属性值。
因此可以采用“色泽更深(2,1)、更好(2,1)”这样的表述方式。

色泽更深 这样的原子公式称为“背景知识”
更好 这样由样本类别转化而来的原子公式称为“关系数据样例”

一阶学习能容易的引入领域知识,是相比命题学习的一大优势。

在命题规则学习乃至一般的统计学习中,引入领域知识通常有两种做法:
1)通过领域知识构造新属性。
2)基于领域知识设计某种函数机制(如正则化)来对假设空间进行约束。

FOIL算法:著名的一阶规则学习算法。
遵循序贯覆盖并采用自顶向下的归纳策略。
并采用后剪枝进行优化。
使用FOIL增益来选择文字。

15.5 归纳逻辑程序设计(ILP)

在一阶学习中引入了函数和逻辑表达式嵌套
容易看到这样就不能自顶向上了,因为无法穷举。

15.5.1 最小一般泛化(LGG)

ILP都采用自底向上的策略。
如何把特殊规则转化为一般规则?
最基础的技术是LGG
举例:p358 - p359

15.5.2 逆归结

归结原理:一阶谓词演算中的演绎推理能用一条十分简洁的规则描述。
可将复杂的逻辑规则和背景知识联系起来化繁为简

逆归结:能基于背景知识来发明新的概念和关系

p360-p363 具体过程有些抽象
逆归结的一大特点是可以自动发明新谓词,这些新谓词可能对应于一些新知识。

15.6 阅读材料

规则学习是符号主义学习的主要代表


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值