AlphaGo到底是怎么下棋的?

AlphaGo到底是怎么下棋的?

在一局围棋中,平均每一步的下法大约有200种可能。棋盘上可能出现的局面总数到了远大于宇宙中原子总数的地步。因此,通过暴力穷举手段预测所有的可能情况并从中筛选中最优势走法的思路,并不适用于围棋AI。

围棋棋盘上出现的可能局面数远大于宇宙中的原子数量。图片来源:Deepmind

AlphaGo选择了别的下棋方式。支撑AlphaGo提高棋力、打败人类选手的“秘诀” 有三个:深度神经网络、监督/强化学习、蒙特卡罗树搜索

深度神经网络是包含超过一个认知层的计算机神经网络。对于人工智能而言,世界是被用数字的方式呈现的。人们将人工智能设计出不同的“层”,来解决不同层级的认知任务这种具备许多“层”的神经网络,被称为深度神经网络。AlphaGo包含两种深度神经网络:价值网络和策略网络。价值网络使得AlphaGo能够明晰局势的判断,左右全局“战略”,抛弃不合适的路线;策略网络使得AlphaGo能够优化每一步落子,左右局部“战术”,减少失误。两者结合在一起,使得AlphaGo不需要过于庞大的计算也能够走出精妙的棋局,就像人类一样

监督学习和强化学习是机器学习方式的不同种类。监督学习是指机器通过人类输入的信息进行学习,而加强学习是指机器自身收集环境中的相关信息作出判断,并综合成自己的“经验”。在初始阶段,AlphaGo收集研究者输入的大量棋局数据,学习人类棋手的下法,形成自己独特的判断方式。之后,在不计其数的自己与自己模拟对弈,以及每一次与人类棋手对弈中,AlphaGo都能并根据结果来总结并生成新的范式,实现自我提高。

最后,蒙特卡洛树是一种搜索算法。AI在利用它进行决策判断时,会从根结点开始不断选择分支子结点,通过不断的决策使得游戏局势向AI预测的最优点移动,直到模拟游戏胜利。AI每一次的选择都会同时产生多个可能性,它会进行仿真运算,推断出可能的结果再做出决定。

AlphaGo中的蒙特卡罗树搜索流程。图片来源:Nature

除了AlphaGo,围棋AI哪家强?

依赖于上述三大“武器”,AlphaGo成为了目前人类制造出来的最为优秀的围棋AI。连败人类棋手的胜绩就是明证。但除了它之外,世界各国也开发过不同的游戏AI,向围棋这一智力上的“绝对领域”发起挑战。

法国研发的Crazy Stone(狂石),日本研发的Zen(天顶)都曾是这一领域的翘楚。它们都曾经给人类造成过威胁,但从未像AlphaGo一样将最顶级的人类棋手打的一败涂地。在AlphaGo一举走红之后,人工智能界对围棋AI的研发热情空前高涨。

Zen的改良版DeepZenGO在2017年3月参加了日本举办的“世界最强棋手决定战”,先后负于中国棋手芈昱廷九段和韩国棋手朴廷桓九段后,战胜日本棋手井山裕太九段,取得第三名的成绩。

由中国腾讯公司研发的围棋AI“绝艺”(Fine Art)于2016年3月后完成,同年8月23日首次战胜职业棋手。11月2日,绝艺战胜世界冠军江维杰九段。11月19日,绝艺与柯洁九段交手,取得了一胜一负的成绩。如今,绝艺对世界冠军和全国冠军的胜率,已经能够维持在90%以上了。



作者:S.西尔维希耶
链接:https://www.guokr.com/article/442174/
来源:果壳
本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系sns@guokr.com

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值