人工智能----学习中

一、人工智能的基础概念

 主流方法:包括符号主义人工智能为核心的逻辑推理、数据驱动为核心的机器学习、探索与利用为核心的强化学习
目前的黑盒人工智能造成混乱和怀疑,因为机器学习模型是不透明,不直观,难以理解的,故需求可解释人工智能,可以帮助人们预测因果关系,帮助理解

二、知识表示和知识图谱

知识:积累起来的对客观世界的认识与经验
知识中的规则和事实
规则:一般结构为如果。。。,那么。。。
事实:一般结构为什么是什么,如天气是晴朗的
知识的相对正确性:任何知识都是在一定条件及环境下产生的,在这种条件及环境下才是正确的
知识的不确定性:
1.随机性引起:因果率的缺失(一个因对应几个果)
2.模糊性引起
3.经验引起(经验本身就蕴含不精确性和模糊性,这就形成了知识的不确定性)
4.不完全性引起:(火星上可能有水)
知识的可表示性与可利用性:
知识可以用适当形式表示,知识可以被利用
知识表示:将人类知识形式化或者模型化

谓词公式一些用到的性质:
假言推论

2.1 产生式 

确定性规则知识产生式:

不确定规则需要在后面加上置信度
确定性事实 :

 不确定事实需要在后面加上置信度
note:蕴含式智能表示精确知识,而产生式可以表示不确定知识,匹配也可以不精确
产生式的描述----巴科斯范式

 规则库:产生式集合
综合数据库:存放问题求解过程中信息的数据结构
控制系统:负责整个产生式系统的运行:需要推理,冲突消解,规则执行,检查推理终止条件
推理过程:从规则库中取出产生式r1,检查其前提是否与综合数据库中的已知事实是否一致,若失败,则取出r2进行匹配

2.2 框架表示法 

一个框架分为若干个槽和侧面,槽用来描述所论对象某一方面的属性,侧面用来描述相应属性的一个方面

2.3 知识图谱 

知识图谱可被看作为一张图,图中的节点表示实体或者概念,图中的边表示属性或者关系构成

知识图谱的逻辑结构:模式层和数据层,数据层主要由一系列事实组成,知识以事实为单位进行存储,模式层构建正在数据层之上,是知识图谱的核心

结构化数据:知识定义和表示都比较完备的数据
半结构化:部分数据是结构化的,但是存在大量结构化程度较低的数据
非结构化数据:没有定义和约束的自由数据 

三、确定性推理方法

3.1 推理的基本概念

3.1.1 定义

根据已知事实和知识根据某种策略推出结论

3.1.2 推理方式及其分类

演绎推理:一般推出个别,使用三段论方法,在大前提(一般结论)和小前提(个别情况)推出结论
归纳推理:个别推出一般,分为完全归纳推理和不完全归纳推理

默认推理:在知识不完全的情况下假设某些条件已经具备索进行的推理

确定性推理:推理时所用的知识和证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假
不确定性推理:推理时所用的知识和证据均不确定

单调推理:随着推理的进行和新知识的加入,推理的结论愈发接近最终目标。
非单调推理:由于新知识加入,可能会否定之前的结论,使得推理退回到某一步
note:默认推理是非单调推理

启发性推理:

启发性知识:与问题相关且能加快推理速度过程,提高搜索效率的知识

3.1.3 推理方向

正向推理:(事实驱动推理)根据已知事实推出结论

 逆向推理:(目标驱动推理)以某个假设目标作为出发点,去寻找相关证据,若所需证据均能找到,说明原假设成立

 混合推理:先正向后逆向或者先逆向后正向:
正向帮助选择目标,逆向提高可信度
逆向推理得到信息帮助正向推理得出更多结论

 双向推理:根据已知事实和假设目标进行双向推理,在某一步骤碰头
note:如果出现多种匹配成功的情况:使用冲突消解办法

3.2 自然演绎推理

从一组已知为真的事实出发,运用经典逻辑的推理规则(假言推论,拒取式,P规则(利用推理中已经给定的前提),T规则(通过前提推出的结论))推出结论的过程

3.3 鲁滨逊归结原理

 note:空子句是永假的,不可满足的

3.3.1 谓词公式化为子句集

1.消除谓词公式中的箭头和双箭头

2. 把否定符号移动到谓词的位置上

 3. 变量标准化:
对于不同的符号要变换
4.消去存在量词

 此处将存在量词换位函数f(x)

 5. 化为前束式
前束式 = (前缀(全称量词串)){母式(不含量词的谓词公式)}
6.化为Skolem 标准形

7.略去全称量词
8.消去合取符
9.字句标准化 

note:谓词公式不满足的充要条件是其子句不可满足

四、不确定推理方法 

推理:从已知事实出发,通过运用相关知识逐步推出结论或者证明某个假设不成立或者成立的思维过程

可信度:根据经验对一个事物或者现象为真的相信程度

CF(H,E) 可信度因子,反映前提条件同结论的联系强度
取值范围[-1,1]
若证据的出现是否与H无关,则其为0
证据不确定性:CF(E)
多个证据的合取取最小值,多个证据的析取为最大值
不确定度的传递算法

合成算法:

 概率分配函数:

总信任程度

似然函数

 4.1模糊集合

zadeh表示法

模糊集合的运算和表示
1.反集合:对应的数使用1或者-1减去
2.交集:取小数值
3.并集:取大数
模糊集代数运算

模糊关系为两个模糊集乘积,方法遵循矩阵乘法,乘法换为交,加法换为并
模糊关系也可以进行合成,方法遵循矩阵乘法,乘法换为交,加法换为并

模糊决策包含最大隶属度法,加权平均判决法,中位数法
最大隶属度法,找到模糊向量中隶属度最大的数

加权平均判决法

中位数法:找到间断点,使得左右相加均为1. 

4.2 粗糙集

知识越多,越强,分类越细
等价关系:
等价关系需要满足自反性,对称性,传递性
等价类集合:U为对象构成的非空有限集合

上近似与下近似: 下近似代表在X论域内的等价关系,上近似只需要此等价关系同X有相交的敌方即可

正域:其实就是下近似
边界域:上近似 - 下近似 = 
负域:论域 - 上近似 = 

精确集:上近似 = 下近似
粗糙集:不等
近似精度:abs(上近似/下近似)
粗糙度 = 1-近似精度

4.3 信息系统

上述为对于具有某属性的某对象,根据信息函数,确定值域 
对于a∈A,,由a可以确定论域U上的一个等价关系,称为由a确定不可区分关系,记为ind(a),称a为不可区分关系

信息函数其实就是提供知识(信息),如根据信息系统所提供的知识确定函数的值 ,这里的前面1,4代表对象,头痛和体温代表属性,然后信息函数得到结论,代表的意思是1号对象头痛,四号对象体温正常,根据知识分类后的对象不同,属性相同,但是使用同一信息函数的结果可能不同

决策表达函数:其实就是在信息函数后面加上结果,这里涉及到上下近似计算,ind(A)代表能将其划分的最小集合,通过交集运算,根据A中的关系的划分后相交得到的最小集合

属性约简 

所谓属性约简大概就是根据不同划分,观察缺少哪个关系对于划分没有影响,那么其就为可约简的关系 

五、进化算法

仿照达尔文进化论设计的进化算法,是一个算法簇,主要包括
1.遗传算法
2.遗传编程
3.进化策略
4.进化规划

5.1基础概念

个体:候选解
基因型:内部基因
表现型:外在表现
解码:基因型到表现型
编码:表现型到基因型

位串编码:将空间问题的参数编码为一堆排列的染色体
        二进制编码:使用若干二进制数表示一个个体,将原问题的解空间映射到位串空间上,然后再位串空间进行遗传操作
        Gray码,将二进制编码通过变换得到的编码,为了解决二进制中的Hamming距离(汉明距离)问题,提高遗传算子的搜索效率

note:本位与前一位取异或决定本位的值,而逆转是结果位与本位取异或的值

流程图:结束标志取决于预先设定好的轮数

5.2 种群设定

5.2.1 初始种群的产生

1.根据固有知识,把握最优解所占空间在整个问题空间中的分布范围
2.随机产生一定数目的个体,从中挑选最好的个体加到初始种群,知道初始群体中的个体数目达到预先规模

5.2.2 种群规模的确定

种群规模太小,优化性能不好,容易陷入局部最优解
种群规模太大,计算复杂

5.2.3 适应度函数

将目标函数映射为适应度函数的方法

 若存在超级个体会导致过早收敛和停滞现象
        缩小超级个体的适应度,降低其竞争力;改变原始适应值比例关系,提高个体之间的竞争

适应度函数的尺度变换

  F为原适应度 ;F{}'为线性尺度变换后的新适应度

        线性变换
                线性尺度变换的公式为F{}'=aF+b{\color{Magenta} },(1)线性尺度变换后的新适应度的平均值要等于原适应度平均值。(2)线性尺度变换后的最大适应度要等于新的平均适应度的指定倍数。
        幂函数变换法
                F' = F{_{}}^{k}
        指数变换法
                F' = e{_{}}^{aF}

5.2.4 选择

轮盘赌选择:按照个体选择概率产生一个轮盘,轮盘每个区的角度同个体选择概率成比例,随机产生一个随机数,它在哪个区域就选择哪个个体

如图,当随机数位0-0.18时选择1,在0.18-0.34选择2,如此类推 
但带来的缺点是有些个体无法被选中,如11,它的选择概率为0

锦标赛选择:

锦标赛选择:指每次从种群随机取出k个个体,然后选择其中适应度最高的一个进入子代种群,这一过程反复执行,直到下一代的个体数达到预先设定的数量为止

5.2.5 交叉 

一点交叉:在个体串中选择一个交叉点,进行交叉时,该点前或者后的两个个体部分结构进行交换,并生成两个新的个体

 两点交叉:随机设置两个交叉点,将两个交叉点之间的码串相互交换

 5.2.6 变异

单点变异:在一个个体上随机挑选一个变异点进行变异
多点变异:在一个个体上随机选择多个变异点进行变异

5.2.7 精英策略

把群体中适应度最高的个体不进行交叉而直接复制到下一代中,保证遗传算法终止时得到的最后结果一定是历代出现过的最高适应度的个体

5.3 遗传编程

终端集:终端没有参数并作为叶子节点,代表GP的输入,问题域的属性和特征也通常用作终端,随机数有时也被用作终端
功能集:一组函数或者运算符,构成树的根和内部节点
二者均需要具备充分性和闭包
充分性:必须具有解决某问题的端节点和功能符号的组合
闭包:任何函数都可以接收任何函数或者终端的返回值

5.3.1 种群初始化

FULL方法:只能从函数集中选择内部节点,直到到达最大树深度,然后从终端集中随机选择叶子节点
GROW方法:从函数集合终端集中选择节点,直到到达最大树深度,当达到树的最大深度的时候,树的结点只能从终端集选取
还有一种各使用一半的方法,一半种群使用FULL方法,一半种群使用GROW方法

6.1 粒子群算法

PSO 模拟了自然界鸟群捕食和鱼群捕食,通过群体中的协作寻找到问题的全局最优解。

pbest:自身极值,自身最好的位置
gbest:全局极值,群体最好的位置
惯性权重w:控制前一速度对当前速度的影响
        一般设置为线性递减[0.9-0.4],也有非线性递减的方案
        可以采用模糊控制的方式,或者在[0.5,1.0]之间随机取值
        w设置为0.729的同时将c1和c2设置为1.49445,有利于算法的收敛
c1和c2
        通常设置为2.0,代表对两个引导方向同等重视
        范围一般在0-4之间
        研究c1c2的自适应调整
vmax:决定每一次的最大移动距离,制约算法的探索和开发能力

1.没有第二部分
        粒子没有认知能力
2.没有第三部分
        粒子间没有社会共享信息
3.没有第一部分:粒子不具有记忆性

PSO算法流程:

PSO对种群规模要求不高,一般取20-40就可以
粒子的长度D有优化问题本身决定,决定了解的长度
粒子的范围R由优化问题本身决定,每一维可以设置不同的范围 

运行步骤的注意

1. 初始化每个解的位置和速度,然后根据适度函数(根据题意给出)计算最优值,得到历史最优位置和群体最优位置
2. 粒子速度和位置更新,根据PSO公式更新位置和速度,对于越界的位置,需要进行·合法性调整

3.评估粒子的适度值函数,更新历史最优位置和全局最优位置 
        通过计算当前位置和最优位置的适应度函数值进行比较,决定是否更新pbest和gbest

6.3.1 理论研究改进

 归纳:

        全局版本收敛快,容易陷入局部最优,局部版本PSO收敛满,不容易陷入局部最优,适用于多峰问题的处理

基于粗糙集的粒子群和遗传算法混合算法(PSO-GA-RS)PSO代表粒子群算法,GA代表遗传算法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值