爬山法 Hill Climbing
http://blog.163.com/highway_xxw/blog/static/26754625200972884316842/
爬山法是向值增加的方向持续移动到简单循环过程,算法在到达一个“峰顶”时终止,
此时相邻状态中没有比该“峰顶”更高的值。
爬山法不维护搜索树,当前节点只需要记录当前状态及其目标函数值;
爬山法不会前瞻与当前状态不直接相邻的状态的值
——“就像健忘的人在大雾中试图登顶珠峰一样”
function HillClimbing(problem) return 一个局部最优状态
输入:problem
局部变量:current, 一个节点
neighbor,一个节点
current = MakeNode(Initial-State(problem));
loop do
neighbor = a highest-valued successor of current ;
if VALUE[neighbor] <= VALUE[current] then return STATE[current];
current = neighbor ;
爬山法又称贪婪局部搜索,只是选择相邻状态中最好的一个。尽管贪婪是七宗罪之一,
但是贪婪算法往往能够获得很好的效果。当然,爬山法会遇到以下问题:
(1)局部极值
(2)山脊:造成一系列的局部极值
(3)高原:平坦的局部极值区域——解决办法:继续侧向移动
2. 爬山法的变体形式
随机爬山法:
在上山移动中,随机选择下一步,选择的概率随着上山移动到陡峭程度而变化;首选爬山法
随机地生成后继节点直到生成一个优于当前节点的后继随机重新开始的爬山法
“如果一开始没有成功,那么尝试,继续尝试”算法通过随机生成的初始状态来进行一系列的爬山法搜索,找到目标时停止搜索。
该算法以概率1接近于完备:因为算法最终会生成一个目标状态作为初始状态
如果每次爬山搜索成功的概率为p,则需要重新开始搜索的期望次数为 1/p。例如:
八皇后问题,大概需要7次迭代(6次失败,1次成功)即可找到目标,即:
p=1/7=0.14
所需步数的期望值:一次成功迭代的搜索步数 + 失败搜索步数 * (1-p)/p
1*4+6*3=22