人工智能 一种现代的方法 第2章 智能Agent

Agent的本质,完美性,环境多样性,分类

  1. 环境

Agent感知序列:该Agent所接收到的是所有输入数据完整历史

Agent函数:描述Agent行为,将任意给定感知序列映射为行动

Agent程序:人造Agent函数的实现。

  1. 理性的概念
    1. 理性

对每个可能的感知序列,根据已有的感知序列提供的证据和Agent具有的先验知识,理性Agent应该选择能使其新能最大化的行动。

    1. 全知、学习、自主性

全知Agent明确知道他的行动产生的实际结果并做出相应的动作,现实中不可能

Agent要从它感知的信息中尽可能地学习

自主性使Agent不只依赖于先验知识,也依赖于自身的感知信息。

  1. 环境的性质
    1. 任务环境的描述规范

PEAS描述:Performance,Environment,Actuators,Sensors

    1. 任务环境的性质
      1. 完全可观察与部分可观察

Agent的Sensors在每个时间点上都能获取环境的完整状态。

       若监测到的信息与行动决策相关,则该任务环境是有效完全可观察的。

      1. 单Agent与多Agent

对抗,竞争性/

      1. 确定的与随机的

环境的下一个状态完全取决于当前状态Agent执行的行动则环境是确定的。

      1. 片段式与连续式

片段:下一个片段不依赖以前片段采取的行动(如大部分的分类任务)。

连续:当前决策会影响到所有未来决策。

      1. 静态与动态

取决于环境在Agent计算时是否会改变。

      1. 离散与连续

环境状态,时间处理方式,Agent感知信息和行动 都有离散和连续之分。

      1. 已知与未知
  1. 结构

Agent = 体系结构(计算设备) + 程序(Agent程序)

    1. 简单反射Agent

    1. 基于模型的反射Agent

    1. 基于目标的Agent

    1. 基于效用的Agent

    1. 学习Agent

学习元件负责改进提高,性能原件负责选择外部行动。问题发生器负责可以得到新的和有信息的经验的行动建议。

       各部件的工作

  1. 原子表示 2. 要素化表示(状态有特征向量) 3. 结构化表示(特征向量+其他对象的关系)

 

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值