高级人工智能 读书笔记

高级人工智能  

史忠植 3ed


教学园地 有该书 ppt  值得阅读,写得不错

参考书:


摘选自己感兴趣章节

1 绪论


2 人工智能逻辑

公理化逻辑 = 逻辑公理 + 推理规则


2.4  非单调逻辑

background: 推理系统的定理集合并不随着推理过程的进行而单调地增大,新推出的定理很可能会否定、改变原来的一些定理,使得原来能够解释的某些现象变得不能解释


默认逻辑 default logic (Reiter)

限制逻辑 circumscription logic (McCarthy)


situation calculus 情景演算


3 约束推理

CSP: constraint satisfied problem

Pareto Optimality

question: Nash Equilibrium   vs. Pareto Optimum


3.3 约束传播

Mackworth 算法

约束搜索


my question: constraint propagate vs Graph


6 Bayes network

共轭分布


Jeffrey原则


7 归纳学习


my question: cloud computing vs 


7.7 ID3 学习算法

信息熵


8 统计学习


VC维(Vapnik-Chervonenkis dimension)


8.3 学习过程的一致性


8.5 SVM



10 Reinforcement learning

characteristics:

  • trial and error search
  • delayed reinforcement

Markov

10.3 dynamic programming


10.4 Monter calor

10.5 时序差分学习


10.6 Q-learning



11.5 基于密度的聚类


my question: vs 数学形态学


15 Agent


主体(agent)又称为智能代理。在计算机研究中,agent被视为一个可自治运行的(软件)实体,
agent具有以下行为特性
  • 自治性,即agent自主控制自身行为,可以根据外界环境需求,agent主动
  • 交互性,agent并非封闭实体,会感知外界环境变化,并执行相应调整
  • 协作性,agent任务需要多个agent协作实现,agent之间进行信息通讯或会话

actor model: 一类并发程序计算模型



15.5 主体通信语言ACL



15.6 协调与协作


CPN 合同协议网,采用竞标方式分配任务,再与各个中标实体达成合同,从而实现任务的层次化分配

func agent (env) return action {
        new-state <- update-mem(state, rule, env)
        action <- next-action(new-state,rule)
        return action        
}







  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值