中国象棋和国际象棋程序,采用的都是α-β剪枝方法,但对于围棋来说,这个方法并
不适用,其主要问题是围棋的局面评估不好计算。后来蒙特卡洛方法的引入对于围棋
来说一次突破,通过模拟的方法对局面进行评估,使得计算机围棋从基本不会下棋达
到了业余4、5段的水平。AlphaGo则引入了策略网络和估值网络,与蒙特卡洛方法结合,
缩小了搜索的宽度和深度,使得计算机围棋从业余中等水平达到了职业水平。应该也是
一次突破。
另外,AlphaGo通过增强学习方法,利用自己跟自己博弈自动学习,也是一个突破。
相对于深蓝来说,AlphaGo人为的经验整理减少了很多,通用性更强,比如可以很容易
改造成其他博弈问题的程序。
但是AlphaGo也有不足,深蓝通过一个模型,可以根据搜索深度大概预测所能达到的
下棋水平,能达到一个怎样的等级分。而AlphaGo则很难做到这一点,只能通过比赛测试
其水平。这是由方法所决定的。
【 在 rhetoric (不要走) 的大作中提到: 】
: 标 题: Re: 四国军棋是比较全面的下一个AI博弈游戏
: 发信站: 水木社区 (Thu Jan 28 22:14:34 2016), 站内
: 那么容易突破为什么20年都没有解决
: 现在的突破是什么突破?
: 我看到扎克伯格说,他们的团队采用基于搜索的一种办法,进行模式匹配,然后为可能的
: 走法进行建模。ai下一步只要0.1秒,但是效果可以和以前的智能系统花几年走的一步媲
: 美。在我的猜测里,大约就是计算方法的改进,算法优化,也与计算机运算速度本身的增
: 强有关。
: 和我理解的人工智能其实不太一样。这些系统都是问题解决系统,没有“智”,没有意识,
: 对于机器来说,一切依然是确定的。
: 【 在 dawei78 (小可爱) 的大作中提到: 】
: :
: : 不完全信息 团队配合 ,加上双明棋这种信息论推导
: :
: : ...................
: --