Coursera - Algorithm (Stanford) - 课程笔记 - Week 16

Local Search

  • 最大割问题

    • 输入:无向图 G = ( V , E ) G=(V, E) G=(V,E)
    • 输出:一个割 ( A , B ) (A, B) (A,B),将 V V V划分为两个非空集,其割边数目为所有割最多
    • NP-完全问题
  • 可计算特例:二分图,存在一个所有边都是割边的割

    • BFS:按扩散层数归类,奇数层为一个集合,偶数层为一个集合
  • 启发式方法:局部搜索算法

    • 始终维护一个候选割集,每一次迭代只进行细微的局部调整
    1. ( A , B ) (A, B) (A,B)为一个任意的割集
    2. 主循环:如果存在一个点 v v v,存在 d v ( A , B ) > c v ( A , B ) d_v(A, B) \gt c_v(A, B) dv(A,B)>cv(A,B),那么将其从当前点集移动到另外一个点集——让割边总量显式增加
    3. 返回最终的割集 ( A , B ) (A, B) (A,B)
    • 总迭代数 ( n 2 ) \binom{n}{2} (2n)——多项式时间完成
    • 近似性能保证:至少50%的最佳结果
  • 对于最大加权(非负)割

    • 局部搜索算法仍然可用
    • 仍然能够保证50%的最优解
    • 但是不能保证多项式时间内收敛
  • 局部搜索的原则

    • X X X为某一个问题的候选解(图的割方案、TSP的遍历、CSP问题的变量取值方案)
    • 邻居:对于每一个 x ∈ X x \in X xX,明确 y ∈ X y \in X yX x x x的邻居
      • 割方案的邻居:通过切换一个顶点实现
      • 赋值方案的邻居:通过切换一个变量的取值实现
      • 遍历方案的邻居:通过切换其中两条边实现
    • 通用化局部搜索算法
      1. x x x为某一初始解
      2. x x x存在一个更优的邻居解 y y y,置 x ← y x \gets y xy
      3. 不断迭代返回最后局部最优的候选解 x x x
    • 如何选择初始解?
      • 使用启发式方法(贪心算法等)后的结果,局部搜索充当后处理优化方法
      • 没法使用启发式方法:随机地运行多次局部搜索方法,初始解随机选择,选择众多运行中最优的一个
    • 存在多个更优解时,如何选择?
      • 随机选择一个
      • 选择一个单步最大提升解
      • 更复杂的启发式方法
    • 如何定义“邻居”?
      • 更大的邻居集合带来更大的计算压力,但是也可以带来更高的近似精度
      • 寻找一个平衡点!
    • 局部搜索能够保证收敛吗?
      • 如果 X X X有限且每一步都有提升,那么一定会收敛
    • 局部搜索能够在比较快的时间内收敛吗?
      • 一般不能,但是实际应用中大多是可以的
    • 局部搜索解们是对于全局解足够好的近似解吗?
      • 并不,一部分远远达不到全局最优
      • 只能希望经过多次随机初始化之后,最优解足够好
  • 2-SAT问题

    • 输入
      • n n n个二值变量
      • m m m组二元或式
    • 输出:如果存在一个满足所有二元式的变量赋值方案,那么输出yes,否则输出no
    • 计算可行性:2-SAT问题可以在多项式时间内解决
      • 规约为一个强连通分量的计算
      • 多项时间内的可回溯搜索
      • 随机化局部搜索
    • Papadimitriou’s算法
      • 循环 log ⁡ 2 n \log_2 n log2n
        • 选择一个随机初始赋值方案
        • 子循环 2 n 2 2 n^2 2n2
          • 如果当前复制方案满足要求,终止算法并返回
          • 否则,选择任意一个为满足的二元式,随机选择其中一个变量,翻转之以满足该二元式
      • 显然的事实
        • 多项式时间内运行
        • 对于无法满足的实例,必然正确
  • 随机游走(线性)

    • 在除了0位置的每一个位置,都可以等概率随机选择向左或向右移动
    • 从0位置到达 n n n位置的步数期望为 θ ( n 2 ) \theta(n^2) θ(n2),事实上 E [ T n ] = n 2 E[T_n] = n^2 E[Tn]=n2
    • 引论: P ( T n > 2 n 2 ) ≤ 1 2 P(T_n \gt 2n^2) \le \frac 12 P(Tn>2n2)21
    • E [ T n ] = n 2 = ∑ k = 0 2 n 2 k ⋅ p ( T n = k ) + ∑ k = 2 n 2 + ∞ k ⋅ p ( T n = k ) ≥ 2 n 2 p ( T n ≥ 2 n 2 ) = 2 n 2 p E[T_n] = n^2 = \sum_{k = 0}^{2n^2} k \cdot p(T_n = k) + \sum_{k = 2n^2}^{+\infty} k \cdot p(T_n = k) \ge 2n^2 p(T_n \ge 2n^2) = 2n^2 p E[Tn]=n2=k=02n2kp(Tn=k)+k=2n2+kp(Tn=k)2n2p(Tn2n2)=2n2p
  • Papadimitriou’s算法

    • 对于一个可满足的2-SAT实例,该算法找到可行复制方案的概率为 ≥ 1 − 1 n \ge 1 - \frac 1n 1n1
    • 由随机游走算法,一次外循环失败的概率为 1 2 \frac 12 21
    • 总体失败概率 ( 1 2 ) log ⁡ 2 n = 1 n (\frac 12)^{\log_2 n} = \frac 1n (21)log2n=n1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Coursera-ml-andrewng-notes-master.zip是一个包含Andrew Ng的机器学习课程笔记和代码的压缩包。这门课程是由斯坦福大学提供的计算机科学和人工智能实验室(CSAIL)的教授Andrew Ng教授开设的,旨在通过深入浅出的方式介绍机器学习的基础概念,包括监督学习、无监督学习、逻辑回归、神经网络等等。 这个压缩包中的笔记和代码可以帮助机器学习初学者更好地理解和应用所学的知识。笔记中包含了课程中涉及到的各种公式、算法和概念的详细解释,同时也包括了编程作业的指导和解答。而代码部分包含了课程中使用的MATLAB代码,以及Python代码的实现。 这个压缩包对机器学习爱好者和学生来说是一个非常有用的资源,能够让他们深入了解机器学习的基础,并掌握如何运用这些知识去解决实际问题。此外,这个压缩包还可以作为教师和讲师的教学资源,帮助他们更好地传授机器学习的知识和技能。 ### 回答2: coursera-ml-andrewng-notes-master.zip 是一个 Coursera Machine Learning 课程笔记和教材的压缩包,由学生或者讲师编写。这个压缩包中包括了 Andrew Ng 教授在 Coursera 上发布的 Machine Learning 课程的全部讲义、练习题和答案等相关学习材料。 Machine Learning 课程是一个介绍机器学习的课程,它包括了许多重要的机器学习算法和理论,例如线性回归、神经网络、决策树、支持向量机等。这个课程的目标是让学生了解机器学习的方法,学习如何使用机器学习来解决实际问题,并最终构建自己的机器学习系统。 这个压缩包中包含的所有学习材料都是免费的,每个人都可以从 Coursera 的网站上免费获取。通过学习这个课程,你将学习到机器学习的基础知识和核心算法,掌握机器学习的实际应用技巧,以及学会如何处理不同种类的数据和问题。 总之,coursera-ml-andrewng-notes-master.zip 是一个非常有用的学习资源,它可以帮助人们更好地学习、理解和掌握机器学习的知识和技能。无论你是机器学习初学者还是资深的机器学习专家,它都将是一个重要的参考工具。 ### 回答3: coursera-ml-andrewng-notes-master.zip是一份具有高价值的文件,其中包含了Andrew Ng在Coursera上开授的机器学习课程笔记。这份课程笔记可以帮助学习者更好地理解掌握机器学习技术和方法,提高在机器学习领域的实践能力。通过这份文件,学习者可以学习到机器学习的算法、原理和应用,其中包括线性回归、逻辑回归、神经网络、支持向量机、聚类、降维等多个内容。同时,这份笔记还提供了很多代码实现和模板,学习者可以通过这些实例来理解、运用和进一步深入研究机器学习技术。 总的来说,coursera-ml-andrewng-notes-master.zip对于想要深入学习和掌握机器学习技术和方法的学习者来说是一份不可多得的资料,对于企业中从事机器学习相关工作的从业人员来说也是进行技能提升或者知识更新的重要资料。因此,对于机器学习领域的学习者和从业人员来说,学习并掌握coursera-ml-andrewng-notes-master.zip所提供的知识和技能是非常有价值的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值