2019年4月6日训练日记

期望dp学习资料:

https://blog.sengxian.com/algorithms/probability-and-expected-value-dynamic-programming(强烈推荐)

https://blog.csdn.net/weixin_42484877/article/details/86762341

总结:

期望 DP 一般来说有它固定的模式:

一种模式是直接 DP,定义状态为到终点期望,根据全期望公式等,采用逆序计算得到答案。

一种模式是利用期望的线性性质,对贡献分别计算,这种模式一般要求我们求出每种代价的期望使用次数,而每种代价往往体现在 DP 的转移之中。如果状态过于巨大,那么就得考虑分离随机变量了。

本总结只是解释了概率与期望 DP 的冰山一角,它可以变化多端,但那些实际上并不只属于概率与期望 DP,真正核心的内容,还是逃不出我们几种方法。

个人感悟:

期望dp通常还是通过逆推计算答案。关键就是计算出每种可能的情况及其概率。

常常结合算法知识点综合使用(毕竟求期望是一种数学方法)。

具体思路的构造到代码的完成还需要在题目的练习中慢慢体会。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值