通用局部搜索算法之爬山法也叫贪婪算法 (转)

通用局部搜索算法之爬山法也叫贪婪算法

设施区位及算法 2009-08-28 20:43:16 阅读36 评论0 字号:

爬山法 hill-climbing

爬山法是向值增加的方向持续移动到简单循环过程,算法在到达一个“峰顶”时终止,
此时相邻状态中没有比该“峰顶”更高的值。

爬山法不维护搜索树,当前节点只需要记录当前状态及其目标函数值;
爬山法不会前瞻与当前状态不直接相邻的状态的值
——“就像健忘的人在大雾中试图登顶珠峰一样”

function HillClimbing( problem) return 一个局部最优状态
    输入: problem
    局部变量: current, 一个节点
                       neighbor,一个节点
    current = MakeNode(Initial-State( problem));
    loop do
        neighbor = a highest-valued successor of current ;
        if VALUE[ neighbor] <= VALUE[ current] then return STATE[ current];
        current = neighbor ;

爬山法又称贪婪局部搜索,只是选择相邻状态中最好的一个。尽管贪婪是七宗罪之一,
但是贪婪算法往往能够获得很好的效果。当然,爬山法会遇到以下问题:
(1)局部极值
(2)山脊:造成一系列的局部极值
(3)高原:平坦的局部极值区域——解决办法:继续侧向移动

2. 爬山法的变体形式

随机爬山法:
    在上山移动中,随机选择下一步,选择的概率随着上山移动到陡峭程度而变化;

首选爬山法
     随机地生成后继节点直到生成一个优于当前节点的后继

随机重新开始的爬山法
    “如果一开始没有成功,那么尝试,继续尝试”
    算法通过随机生成的初始状态来进行一系列的爬山法搜索,找到目标时停止搜索。

    该算法以概率1接近于完备:因为算法最终会生成一个目标状态作为初始状态

    如果每次爬山搜索成功的概率为p,则需要重新开始搜索的期望次数为 1/p。例如:
    八皇后问题,大概需要7次迭代(6次失败,1次成功)即可找到目标,即:
                            p=1/7=0.14
    所需步数的期望值:一次成功迭代的搜索步数 + 失败搜索步数 * (1-p)/p
                            1*4+6*3=22
转自:
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值