【算法】动态规划及其应用场景

目录

 

1. 前言

2. 什么是动态规划?

3. 动态规划算法求解分析

3.1 适用问题

3.2 算法步骤

4. 动态规划的应用场景

5. 小结


1. 前言

本节内容是动态规划算法系列之一:动态规划的介绍,主要介绍了动态规划的定义,什么样的问题适合用动态规划算法去求解,最后说明动态规划算法在日常生活中的应用场景。

2. 什么是动态规划?

动态规划(Dynamic Programming)在数学上属于运筹学的一个分支,是求解决策过程 (decision process)最优化的数学方法,同时也是计算机科学与技术领域中一种常见的算法思想。

动态规划算法与我们前面提及的分治算法相似,都是通过组合子问题的解来求解原问题的解。但是两者之间也有很大区别:分治法将问题划分为互不相交的子问题,递归的求解子问题,再将他们的解组合起来求解原问题的解;与之相反,动态规划应用于子问题相互重叠的情况,在这种情况下,分治法还是会做很多重复的不必要的工作,他会反复求解那些公共的子问题,而动态规划算法则对相同的每个子问题只会求解一次,将其结果保存起来,避免一些不必要的计算工作。

Tips: 这里说到的动态规划应用于子问题相互重叠的情况,是指原问题不同的子问题之间具有相同的更小的子子问题,他们的求解过程和结果完全一样。

动态规划算法更多的时候是用来求解一些最优化问题,这些问题有很多可行解,每个解都有一个值,利用动态规划算法是希望找到具有最优值的解。接下来,就让我们具体看看动态规划算法的求解思路及相关应用场景。

3. 动态规划算法求解分析

3.1 适用问题

首先,在利用动态规划算法之前,我们需要清楚哪些问题适合用动态规划算法求解。一般而言,能够利用动态规划算法求解的问题都会具备以下两点性质:

  1. 最优子结构: 利用动态规划算法求解问题的第一步就是需要刻画问题最优解的结构,并且如果一个问题的最优解包含其子问题的最优解,则此问题具备最优子结构的性质。因此,判断某个问题是否适合用动态规划算法,需要判断该问题是否具有最优子结构。

Tips: 最优子结构的定义主要是在于当前问题的最优解可以从子问题的最优解得出,当子问题满足最优解之后,才可以通过子问题的最优解获得原问题的最优解。

  1. 重叠子问题: 适合用动态规划算法去求解的最优化问题应该具备的第二个性质是问题的子问题空间必须足够” 小 “,也就是说原问题递归求解时会重复相同的子问题,而不是一直生成新的子问题。如果原问题的递归算法反复求解相同的子问题,我们就称该最优化问题具有重叠子问题

Tips: 在这里,我们需要注意是,与适用动态规划算法去求解的问题具备重叠子问题性质相反,前面我们介绍的分治算法递归解决问题时,问题的子问题都是互不影响,相互独立的,这个也是我们在选用动态规划算法还是分治法解决问题时的一个判断条件。

3.2 算法步骤

在明确什么样的问题适合用动态规划算法去求解时,我们需要掌握动态规划算法的求解步骤:

步骤 1: 刻画一个最优解的结构特征

适合用动态规划算法求解的问题需要满足最优子结构的特征,所以在应用动态规划算法时的第一步就是刻画问题最优解的结构,一般都是用一些数学方法去描述求解问题,用数学公式表明最优解的结构特征。

步骤 2: 递归的定义最优解的值

当应用动态规划算法求解问题时,一般我们会递归的求解相同的子问题,这个时候,我们就需要去递归的定义最优解的值,通常也是先用数学公式去递归定义。

步骤 3: 计算最优解的值

当我们可以清楚的刻画一个最优解的结构特征及可以递归的定义出最优解的值之和,一般我们就可以采用自底向上的方法逐步去计算每一个最优解的值,大问题的最优解的值依赖于小问题的最优解的值,这个是动态规划算法的核心思想。

步骤 4: 利用计算出的信息构造一个最优解

前面的步骤 1,2,3 是动态规划算法求解问题的基础,如果我们仅仅需要一个最优解的值,而不是需要了解最优解本身,我们可以不用去执行步骤 4;如果我们需要了解最优解的具体情况,我们就需要在执行步骤 3 的时候维护一些额外的信息,以便用来构造出一个最优解。

4. 动态规划的应用场景

在日常的生活学习中,递动态规划算法一般可以用来解决很多实际问题。现在,我们就来看看动态规划算法具体有哪些应用场景。

动态规划示例问题:爬楼梯

假设你现在正在爬楼梯,一共需要经过 n 阶楼梯你才可以到达楼顶。每次你可以爬 楼梯的 1 或 2 个台阶。请问一共有多少种不同的方法可以爬到楼顶?

现在,让我们按照动态规划算法的求解步骤我们来分析一下这个问题:

步骤 1: 刻画爬楼梯问题一个最优解的结构特征

情况 1:输入 n=1;输出为 1
解释 1:有一种情况可以爬上楼顶, 爬 1 步,记为 1

情况 2:输入 n=2;输出为 2
解释 2:有两种情况可以爬上楼顶,分别为连续两次爬一阶楼梯和一次爬两阶楼梯,记为 1+1,2

情况 3:输入 n=3;输出为 3
解释 3:有三种情况可以爬上楼顶,如情况 1 和 2 描述一样,记为 1+1+1,2+1,1+2

通过分析可以知道,爬楼梯问题主要在于我们可以一次爬两步或者一步,所以到达最后一阶楼梯 n 时,我们可以从第 n-2 阶楼梯爬两步或者第 n-1 楼梯爬一步完成。
当我们需要知道最多有多少种方法可以爬上 n 阶的楼梯时,我们需要分别知道爬上第 n-2 阶楼梯最多有多少种方法,爬上第 n-1 阶楼梯最多有多少种方法,然后爬上第 n 阶楼梯的最多方法数量等于爬上第 n-1 阶楼梯最多的方法数量加上爬上第 n-2 阶楼梯最多的方法数量

Tips: 在这里,我们可以发现爬楼梯问题满足第 3 节我们定义的动态规划算法需要具备的两种性质,其中的最优子结构就是:爬上 n 阶楼梯的最多方法数包含爬上第 n-1 楼梯和第 n-2 阶楼梯的最多方法数;重叠子问题:需要反复的计算爬各阶楼梯的最多方法数。

步骤 2: 递归的定义爬 n 阶楼梯最多的方法数

  • 上 1 阶台阶:有 1 钟方法;
  • 上 2 阶台阶:有 1+1 和 2 两种方法;
  • 上 3 阶台阶:到达第 3 阶的方法总数是到达第 1 阶和第 2 阶方法的总和;
  • 上 n 阶台阶:到达第 n 阶的方法总数就是到第 (n-1) 阶和第 (n-2) 阶的方法数之和。

综上所述,我们可以知道爬 n 阶楼梯的状态转移方程可以定义为:goStep (n) = goStep (n-1)+goStep (n-2)。动态规划算法最重要的就是去定义这个状态转移方程,通过这个状态转移方程我们就可以很清楚的去计算。

步骤 3: 计算爬 n 阶楼梯最多方法数的值

楼梯阶数 n爬 n 阶楼梯最多的方法数
11
22
3goStep(1)+goStep(2)=1+2=3
4goStep(2)+goStep(3)=2+3=5
5goStep(3)+goStep(4)=3+5=8
6goStep(4)+goStep(5)=5+8=13
7goStep(5)+goStep(6)=8+13=21
8goStep(6)+goStep(7)=13+21=36
9goStep(7)+goStep(8)=21+36=57

步骤 4: 利用计算出的信息构爬 n 阶楼梯每次走几步的方法

其实在爬楼梯这个问题中,我们并不需要统计每次的具体爬楼梯方法,如果需要统计每次具体走法时,需要在计算的时候记录之前的每一步走法,把信息全部记录保留下来即可。

我们可以很明显的发现,动态规划算法很多时候都是应用于求解一些最优化问题(最大,最小,最多,最少),这类问题在现实生活或者学习科研中经常会遇到,这是一种解决问题的思路与方法,希望大家可以好好思考。

5. 小结

本节主要介绍了动态规划算法的定义及基本概念,在学完本节课程之后,需要明白什么样的问题适合利用动态规划求解,如何自己去设计一个动态规划算法,以及我们日常生活中哪些应用场景适合用动态规划思想解决问题。

 

原文地址: http://www.imooc.com/wiki/algorithmlesson/dynamicprogrammingintro.html

  • 3
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习算法应用场景众多,以下是一些常见的深度学习算法及其应用场景: 1. 卷积神经网络(Convolutional Neural Networks,CNN):主要用于图像识别、目标检测、图像分割等领域,其核心是卷积操作,能够提取图像中的特征。 2. 循环神经网络(Recurrent Neural Networks,RNN):主要用于处理序列数据(如文本、音频),能够捕捉数据之间的时间关系,其核心是循环结构,能够处理变长的输入序列。应用场景包括机器翻译、语音识别、文本生成等。 3. 自编码器(Autoencoder,AE):主要用于特征学习、降维、去噪等领域,其核心是对数据进行编码和解码,从而学习到数据的低维表示。应用场景包括图像压缩、图像去噪、异常检测等。 4. 生成对抗网络(Generative Adversarial Networks,GAN):主要用于图像生成、图像修复、图像超分辨率等领域,其核心是通过两个网络(生成网络和判别网络)之间的对抗学习,生成出逼真的图像。 5. 长短时记忆网络(Long Short-Term Memory,LSTM):是一种特殊的循环神经网络,能够解决传统循环神经网络中的梯度消失和梯度爆炸问题,主要用于处理长序列数据。应用场景包括语音识别、机器翻译、视频分类等。 6. 残差网络(Residual Neural Networks,ResNet):主要用于解决深层神经网络中的梯度消失和退化问题,其核心是通过残差连接来保留中间层的信息。应用场景包括图像分类、目标检测、图像分割等。 还有其他的一些深度学习算法,如多层感知机(Multilayer Perceptron,MLP)、深度信念网络(Deep Belief Networks,DBN)等。每种算法都有其特定的应用场景和优势。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值