人工智能技术--Planning

人工智能的一个目标就是要系统能代替人类作事情,就是要求系统自己能够对目标作出一系列动作,也即自己能planning!Planning其实可以看作是一个解题过程:有已知(初始状态)、有求证(目标状态)还有解题所需要的相应逻辑(一组系统动作),所以只要搜索找到能达最终状态的路径就是一个可行的计划。但又如何去做呢?我们解数学题时要用到相应的定理,解物理题也有相应的定律,英语亦有语法等等,他们都有各自的逻辑来描述领域的知识,人工智能要去 “推理”自也要有自己的一套逻辑(大家可以随便找本人工智能的书都有关于逻辑系统的介绍,像命题逻辑、谓词逻辑及一些非经典逻辑等)。在这些逻辑的基础上就可以进行推理了。举例来讲,假设我有个机器人,他的任务就是帮我购置生活用品(牛奶和香蕉),我们用一阶命题逻辑来描述这个问题,机器人具有两个状态: At(x)表示其位置,Have(x)表示其所有商品,而为完成任务它又具有动作:Go(x,y)从x到y,先决条件为At(x),执行结果At(y), buy(x,y)从y购买商品x,先决条件At(x),执行结果have(y),并且假设有超市supermarket卖相应的商品。那么其初始状态就是 At(home),目标状态have(milk),have(banana)。这样,在配合相应的搜索算法机器人能够完成任务了:)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
人工智能的社会影响和风险及其对风险评估和治理的影响的研究往往分为两个集群,在时间范围和预期影响规模上分开。 自人工智能的早期发展以来,人们一直在强烈猜测可能出现比人类更强大的通用智能,例如高级通用智能 (AGI)、超级智能或人工智能奇点。 最近,随着具有重大影响的实际应用程序激增,注意力已转移到当前和立即预期的风险上,例如公平和偏见、隐私、自主和操纵、正当程序和其他问题。 然而,在这两者之间存在一个具有期影响的区域——人工智能可能通过极大地重新配置能力、信息和行为来改变人类和社会,同时仍然(大部分)处于人类控制之下——受到的关注要少得多。 这些期影响可能是最重要的,就潜在社会破坏的可能性和程度以及通过预期React影响这些的能力而言。 但与有可观察记录的直接影响相反; 以及终结点或奇点问题,这些问题可以基于规定的技术特征进行演绎推理,这些特征被假定在影响影响的任何社会或政治条件占主导地位; 这一程对评估和响应规划提出了严峻挑战,可用的有希望的工具或方法很少。 我们提出并开始开发一种评估这些期影响的方法,重点关注其决策影响人工智能系统开发和应用的参与者; 他们的兴趣、能力和信息; 以及影响他们决策的战略互动。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值