人工智能AI 全栈体系(十三)

第二章 计算机是如何学会下棋的

人类棋手在下棋时,会根据自己的经验只考虑在当前棋局下最重要的几个可能的走法,但是计算机没有这种经验。

知识太复杂了,需要考虑很多具体的情况,一旦知识总结的不到位,可能就会出现大的差错,总结知识让计算机使用应该是走不通的。

三、 α \alpha α- β \beta β 剪枝算法

1. 极小-极大模型存在的问题

在这里插入图片描述

2. 人如何处理这个问题呢?

请添加图片描述
请添加图片描述

3. α \alpha α- β \beta β 剪枝算法

  • 假设并不是一开始就将整个搜索图生成出来,而是按照一定的原则一点一点地产生。比如下图是一个搜索图,我们假设一开始并没有这个图,而是按照从上到下从左到右的优先顺序来生成这个图。我们先从最上边一个节点开始,按顺序产生 a、c、g、r 四个节点,假设就考虑 4 步棋,这时就不再向下生成节点了。由于 r 的分值为 0,而 g 是极小节点,所以我们知道 g 的分值应该 ≤0。接下来再生成 s 节点,由于 s 的分值为 5,g 是极小节点且没有其他子节点了,所以 g 的分值等于 0。由于 c 是极大节点,根据 g 的分值为 0,我们有 c 的分值 ≥0。再看 c 的其他后辈节点情况,生成 h 和 t 两个节点,由于 t 的分值为-3,而 h 是极小节点,所以有 h 的分值 ≤-3。
    在这里插入图片描述
  • c 的分值 ≥0,而 h 的分值 ≤-3,这时 u 的分值是多少都无关紧要了。
  • 图中 u 的分值如果大于 h 的当前分值-3,则不影响 h 的分值,即便 u 的分值小于-3,比如-5,虽然改变了 h 的分值为 ≤-5,但是由于 c 是极大节点,c 的当前分值已经至少为 0 了,所以 h 的分值变小也不会改变 c 的分值。
  • 这样的话,遇到图中这种 h 的当前分值小于 c 的当前分值这种情况时,由于 u 的分值是多少都不会影响 c 的分值了,所以就没有必要生成 u 这个节点了。这种情况我们称之为剪枝,其剪枝条件是如果一个后辈的极小节点(如图中的 h),其当前的分值小于等于其祖先极大节点的分值时(如图中的 c),则该后辈节点的其余子节点(如图中的 u)就没有必要生成了,可以被剪掉。注意这里用的是后辈节点和祖先节点,这是一种推广,因为这种剪枝并不局限于父节点和子节点的关系。
  • 在确认了 c 的分值为 0 之后,同样的理由,我们可以确认 a 的分值 ≤0。生成 a 的后辈节点 d、i、v,由于 v 的分值为 3,且 d 向下就一条路,所以有 d 的分值 ≥3。由于 a 的分值最大为 0,而 d 的分值最小为 3,所以大的红圈圈起来的那些分支的分值是多少又没有意义了,a 取 c 和 d 中分值最小的,最终 a 取值为 0,大红圈圈起来的部分都没有必要生成了,又可以被剪掉。这里我们又发现了另外一个剪枝条件:如果一个后辈的极大节点的分值(如图中节点 d)大于等于其祖先极小节点的分值时(如图中节点 a),则该后辈节点还没有被生成的节点可以被剪掉,如图中大红圈圈起来的那些节点。
  • a 的分值被确定为 0 之后,就可以确定 R 的分值 ≥0,继续向下生成节点 b、e、n、E,由于 E 的分值为 0,所以有 n 的分值 ≤0。n 是极小节点,其极大节点祖先有 e 和 R,e 这时还没有值,但是 R 的分值 ≥0,所以满足后辈极小节点的分值小于等于其祖先极大节点分值的剪枝条件,n 的两个子节点 F 和 G 都没有生成的必要,又可以被剪掉了。
  • n 的分值被确定为 0,从而有 e 的分值 ≥0。接着生成节点 o 和 H,由于 H 的分值为 1,有 o 的分值 ≤1,不满足剪枝条件,生成节点 I,I 的分值为 2,o 是极小节点,所以 o 的分值确定为 1。e 是极大节点,从 n 和 o 的分值中选取最大的,从而更新 e 的取值,由原来的 0 修改为 1。e 的分值确定为 1 后,有 b 的分值 ≤1。继续生成 b 的后辈节点 f、P、J,J 的分值为 6,得到 P 的分值 ≤6,不满足剪枝条件,继续生成子节点 K,得到 K 的分值为 8,P 是极小节点,选取子节点中最小的值 6,从而确定 f 的分值 ≥6。后辈极大节点 f 的分值 6 大于等于其前辈极小节点 b 的分值 1,满足剪枝条件,q、M、N 三个节点被剪枝,从而确定 b 的分值为 1。R 的分值取 a、b 中最大者,从而用从节点 b 得到的 1 代替原来从 a 得到的 0。搜索过程到此结束,按照刚才的搜索结果,甲方应该选择 b 作为行棋的最佳走步,如图中的红色箭头所示。
  • 这种方法就是 α-β 剪枝算法,可以利用已有的搜索结果,剪掉一些不必要的分枝,有效提高了搜索效率。

请添加图片描述

  • 深蓝就是用了 α-β 剪枝算法,从而可以在规定的时间内完成一次行棋过程。
  • 这种 α-β 剪枝算法得到的最佳走步跟极小-极大模型得到的结果是一样的。α-β 剪枝只是剪掉了那些不改变结果的分枝,所以不影响最终选择的走步。
  • 那些分值是如何得到的?何处发生剪枝完全取决于那些分值,如果分值不准确则得到的结果也就值得怀疑了。

4. 如何估值?

请添加图片描述

  • 这些分值是非常重要的。据深蓝的研发者介绍说,他们聘请了好几位国际象棋大师帮助他们整理知识,用于估算分值。但是基本思想并不复杂,大概就是根据甲乙双方剩余棋子进行加权求和,比如一个皇后算 10 分,一个车算 7 分,一个马算 4 分等。然后还要考虑棋子是否具有保护,比如两个相互保护的马,分数会更高一些,其他棋子也是大体如此。然后再考虑各种残局等,按照残局的结果进行估分。当然,这里给出的各个棋子的分数只是大概而已。最后甲方得分减去乙方得分就是该棋局的分值。
  • 这个估值虽然看起来有些粗糙,但是由于在剪枝过程中探索的比较深,对于象棋来说,无论是国际象棋还是中国象棋,在探索的比较深的情况下,凭借棋子的多少基本就可以评判局面的优劣了,所以可以得到比较准确的估值。
  • 所以对于计算机下棋来说,探索的越深其棋力也就越强,在可能的情况下,应该尽可能探索的更深一些。

5. α \alpha α- β \beta β 剪枝效果如何?

请添加图片描述
请添加图片描述

6. 几点注意

请添加图片描述

α-β 剪枝的关键点
  • 在判断是否剪枝时,都是后辈极小节点与祖先极大节点进行比较、后辈极大节点与祖先极小节点做比较。当后辈极小节点的值小于等于祖先极大节点的值时,发生剪枝;当后辈极大节点的值大于等于前辈极小节点的值时,发生剪枝。

  • 在判断是否剪枝时,一定要注意不只是与父节点做比较,还要考虑祖先节点。

  • 在完成一次 α-β 剪枝后,只是选择了一次行棋,下一次应该走什么棋,应该在对方走完一步棋后,根据棋局变化进行 α-β 剪枝过程,再次根据搜索结果确定走什么棋。

7. 总结

请添加图片描述

  • 对于真实的棋类游戏,由于其状态数过于庞大,不可能通过穷举所有状态的方法获得最佳走步。受人类下棋时思考过程的启发,提出了计算机下棋的极小-极大模型。该模型只在有限步内搜索,获得有限范围内的最佳走步。但同样由于棋类变化太多,即便是有限范围的搜索也是非常花费时间的。人类棋手在做极小-极大搜索的时候,并不是考虑有限范围内的每一种可能的走法,而是根据经验砍掉大量的不合理分枝,从而极大地缩小了搜索范围。受此启发提出了 α-β 剪枝算法,与人类利用经验砍掉大量不合理分枝不同,计算机并没有这种经验,而是利用已有的搜索结果,砍掉没有必要产生的分枝,有效地提高了搜索效率。深蓝就是采用的这种方法。

  • α-β 剪枝条件:

    • 当后辈的极小节点值小于等于其祖先的极大节点值时,发生剪枝。

    • 当后辈的极大节点值大于等于其祖先的极小节点值时,发生剪枝。

  • 注意:比较时不只是与其父节点做比较,还要与其祖先节点做比较,只要有一个祖先节点满足比较的条件,就发生剪枝。

  • α-β 剪枝算法所得到的最佳走步质量严重依赖于最底层节点估值的准确性,搜索的越深,估值越准确。这是因为越深的节点其对应的棋局中棋子越少,而棋子比较少的情况下,其局面的估值也就会比较准确。这与人下棋时的思考也是一致的。

  • α-β 剪枝算法结束时得到的只是当前棋局下的一步走法,相当于我们思考了半天决定了一步棋如何走,后面如何进行,需要待对方走完一步棋后再次进行 α-β 剪枝搜索获得下一步棋的走法。也就是说,每行棋一次都需要进行一次 α-β 剪枝搜索。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
开发速学速查手册集锦: 知识体系:《Awesome Lists | CS 资料集锦》、《Awesome CheatSheets | 速学速查手册》、《Awesome Interviews | 求职面试必备》、《Awesome RoadMaps | 程序员进阶指南》、《Awesome MindMaps | 知识脉络思维脑图》、《Awesome-CS-Books | 开源书籍(.pdf)汇总》 编程语言:《编程语言理论》、《Java 实战》、《JavaScript 实战》、《Go 实战》、《Python 实战》、《Rust 实战》 软件工程、模式与架构:《编程范式与设计模式》、《数据结构与算法》、《软件架构设计》、《整洁与重构》、《研发方式与工具》 Web 与大前端:《现代 Web 开发与工程架构》、《数据可视化》、《iOS》、《Android》、《混合开发与跨端应用》 服务端开发实践与工程架构:《服务端基础》、《微服务与云原生》、《测试与高可用保障》、《DevOps》、《Spring》、《信息安与渗透测试》 分布式基础架构:《分布式系统》、《分布式计算》、《数据库》、《网络》、《虚拟化与云计算》、《Linux 与操作系统》 数据科学,人工智能与深度学习:《数理统计》、《数据分析》、《机器学习》、《深度学习》、《自然语言处理》、《工具与工程化》、《行业应用》 产品设计与用户体验:《产品设计》、《交互体验》、《项目管理》 行业应用:《行业迷思》、《功能域》、《电子商务》、《智能制造》
AI大模型工程师是指在人工智能大模型领域具有面技术能力的工程师。他们不仅能够熟练掌握深度学习、机器学习等人工智能领域的核心算法和模型架构,还能够进行端到端的开发和实现,具备完整的技术堆知识。 首先,AI大模型工程师需要精通深度学习和机器学习的算法原理,包括神经网络、卷积神经网络、循环神经网络等各种模型结构和优化方法。他们需要能够灵活运用这些算法,解决各种复杂的人工智能问题。 其次,AI大模型工程师需要熟练掌握各种开发工具和框架,例如TensorFlow、PyTorch、Keras等,能够在这些框架下进行模型的实现和训练。 此外,AI大模型工程师还需要具备数据处理和分析的能力,能够处理海量的数据,并能够进行数据挖掘和特征工程,为模型训练提供高质量的数据。 最后,AI大模型工程师需要具备工程实现和部署的能力,能够将训练好的模型应用于实际的场景中,包括模型的优化和性能调优,以及模型的部署和服务化。 总之,AI大模型工程师需要具备面的人工智能技术能力,涵盖算法原理、开发工具、数据处理和工程实现等方面,能够独立完成从建模到部署的流程工作。这样的工程师在人工智能技术领域具有很高的竞争力,能够为企业和团队带来更多的价值和发展机会。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柠檬小帽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值