动态规划的原理:
首先我们来想一个这样的问题:分治法平时很好用,但是假如我的子问题有很多重复的部分,那我不晓得要多多少重复计算,例如这种算法:
fib(n-1)和fib(n-2)的计算过程中有大量的重复:
太浪费了,我们可以这样算:
那这种问题我要怎么优化呢?:
看起来有点复杂,我的理解就是:子问题的解被重复利用了。
这样,动态规划正式上场:
什么时候可以用这个方法呢?:
接下来举一个例子:
注意注意注意:这里要求的是一个最简的计算的方法,不是要你求出来
我们的算法有很多,我们难道要一个一个检查吗?先复习一下常规步骤:
我们现在要进行第一步了:
一言以蔽之:就是总问题的优化解是由两个子问题解组成的,而这个子问题的解也因该是优化解。母问题最优解包含子问题最优解。
然后还有一点:为什么这个问题会存在重复的现象?:
你看,假如我一个一个地检查,那要浪费多少。
接下来量化最优解的代价:
我们可以看出一个规律:
这个箭头不用在意是什么,只是和下面的算法相关,我们要一条一条往上算,算第二条的时候保证第一条是算完了的,因为算第二条的数都在前面的条上。
这里的伪代码有一点不对。记录s的地方应该在for循环里面。但也无伤大雅,知道意思就行。只要算到了前面的,后面的就可以通过之前的结果算出来,就比如计算m[1,2],m[1,2]=m[1,1](也就是0)+m[2,1](不存在,也是0)+pgr,这样就可以了,然后就是不断地向上走。
最后优雅地打印出结果。
最长公共子序列问题:
注意,子序列不一定要连着:
这么水,怪不得DNA都有那么多相似的地方,那就是乱打都能有很多相同····
这个问题如何解决?:
可以想象:假如xm=ym,但zk不等于xm,那我可以在当前的相同子序列后面加上一个xm(或者说ym)不就可以得到一个更长的序列了吗?所以xm=ym=zk,
2,3步也就是把不可能加入z的项去掉,简化问题。
故可以知:
重叠性也可以看出来了:
接下来就要写出递归方程:
有没有发现目前为止的所有问题,都要写出递归方程并且方程中会出现“一个方程等于两个方程之和,而这两个方程计算过程中会有重复部分”的情况,这就是使用动态规划的好时机!
接下来就是一条一条地计算:
伪代码写在下面:
硬核指针,记录自己从哪来,如果是横,竖的那就说明自己这一项没出息,不相等,斜的就是自己相等,到时候就可以根据这个找到那些是相等的,也就知道了LCS是哪些了。
0-1背包问题:
用数学的方式写出来就是:
现在,我要开始优化了:
去掉开头一个元素,开始简化。
老规矩,准备写递归方程:
这里简单解释一下:假如j(容量)直接放不下i,那i肯定不在背包里,那我直接丢弃它,有和没有价值是一样的。但是假如j>wi,那有可能i在背包里。那我就要掂量一下了,我要比较一下:假如它不在最好背包里,那我就可以直接到i+1去;假如他在最好背包里,那我就要在去到i+1的同时剪掉一部分背包的容量(因为这个i在背包里原本是占了位置的),还要把i的价值加给m(i,j)
对初始值的一些解释:假如最开始的时候背包直接装不下,那背包里的价值肯定是0.假如装得下,那我们刚才知道,子问题最优解也是母问题最优解,那我就要把他装下。可以看图更好理解:
可以看到,我想要计算m(1,c)是多少,那就要算m(2,c)和m(2,c-w1)+v1的大小,而这两个m也要这样计算·····那我就干脆从头开始,计算所有可能要用到的值,比如m(4,c-w1-w2-w3)···
还是有点抽象,我们用实例来看一看:
这样就可以了吧?接下来还有问题:
最优二叉查找树:
接下来我们又是经典的分解问题,树的分解是什么?当然是子数啦:
用数学一点的说法就是:
证到了子问题和母问题优化解是一样的,那就开始量化代价,弄递归方程。
这里要解释一下什么是w.w就是kr的存在让左右子树多的那一部分期望。我们处理子问题的时候,算出的期望是这个小树的期望,在大树里不是这样,大家都加了一个节点呢!但是要注意,上面加了一个节点,大家的深度虽然是都加了一,但大家的人没凑齐,说以期望不是单纯地加一,具体是加了“这个树里的概率之和”:
W(r+1,j) 同理。于是我们可以定义一个W(i,j),就是:
那我们就可以把刚刚的公式化简成这样:
这里有个小插曲:W(i,j)计算不困难,但每次都算的话还是有重复运算,所以它也有自己的“动态规划”算法,W(i,j)=W(i,j-1)+pj+qj.
对初始值解释一下:假如j=i的话,那就相当于只有一个"K"式节点。比i还小那就是只有一个叶子节点了。那么这个问题一下子就变得和上面的问题一样简单了。
这个很好理解,那下面这个呢?
简单的记法就是E和W的初始值是一样的。
这里解释一下为什么W有这个特性。K1K2到Kn都是由小到大的,最后一个去掉了在这个搜索树中就是最右边的节点去掉了,也就是去掉了pj和qj。最后献上伪代码: