国科大.深度学习:期末复习知识点总结笔记

  • 卷积核在图片上如何计算,padding,特征图大小,参数量
  • 图卷积网络,给定几个点的状态,权重矩阵,进行一次图卷积,求结果
  • 几种激活函数的对比
  • sigmoid:
    • Sigmoid函数的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层。它在物理意义上最为接近生物神经元。
    • 容易产生梯度消失,导致训练出现问题。
  • tanh:
    • 比Sigmoid函数收敛速度更快。
    • 相比Sigmoid函数,其输出以0为中心
    • 还是没有改变Sigmoid函数的最大问题——由于饱和性产生的梯度消失。
  • ReLU:
    • ReLU在SGD中能够快速收敛。据称,这是因为它线性、非饱和的形式。
    • 可以更加简单的实现。
    • 有效缓解了梯度消失的问题 。
    • 随着训练的进行,可能会出现神经元死亡,权重无法更新的情况。
  • 全连接网络,如何求损失函数相对于网络参数的梯度
  • 梯度消失爆炸的原因与解决
    • 在反向传播过程中需要对激活函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加这就是梯度爆炸。同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少这就是梯度消失。因此,梯度消失、爆炸,其根本原因在于反向传播训练法则,属于先天不足。
    • 另一方面,如果选择sigmoid激活函数,导数小于1,也容易导致梯度消失
    • 解决方案:
      • 改激活函数:ReLU,leak ReLU
      • Batchnorm,批规范化,通过规范化操作将输出信号x规范化到均值为0,方差为1保证网络的稳定性。加速网络收敛速度,提升训练稳定性的效果。

      • 残差结构:网络深度增加时,网络准确度出现饱和,甚至出现下降。短路连接。

  • GRU、LSTM,解决什么问题
    • 解决的问题:RNN在许多阶段传播的梯度往往会消失(大部分时间)或爆炸(相对很少)。与短期交互作用相比,RNN难以建模长期依赖关系。另外,RNN并不总是容易训练。LSTM可以解决梯度消失问题!
    • LSTM:输入门、输出门、遗忘门

牢牢记住:Wh+Ux

    • GRU:复位门、更新门

  • RBM、DBN与GAN、VAE对比,优劣势与特点
    • AE:自编码机

过程中降低了特征维度!学习低维表示,希望能无损地重构,重构误差最小

    • RBM受限玻尔兹曼机、DBN深度置信网络

RBM可以学习数据内部特征,拟合离散分布,基于能量模型

DBN逐层无监督训练RBM,最后有监督微调

    • GAN

    • VAE

VAE 模型是一种包含隐变量的生成模型,它利用神经网络训练得到两个函数(也称为推断网络和生成网络),进而生成输入数据中不包含的数据基于概率

VAE 中隐藏层服从高斯分布,AE 中的隐藏层无分布要求。

训练时,AE 训练得到 Encoder 和 Decoder 模型,而 VAE 除了得到这两个模型,还获得了隐藏层的分布模型(即高斯分布的均值与方差)

AE 只能重构输入数据X,而 VAE 可以生成含有输入数据某些特征与参数的新数据

相比于传统机器算法,GAN有三方面的优势:

  • 首先GAN模型的表现效果更好,生成清晰的样本;
  • 第二GAN框架可以训练任何一种生成器网络
  • 第三GAN适用于一个变量的随机发生概率不可计算的情况。

  • 强化学习基本思想、基本要素、应用场景

基本思想:智能体,环境,状态,动作,奖励,最大化期望的奖励,监督学习与强化学习相结合

马尔可夫决策过程的定义:,状态,动作,奖励,转移概率,奖励衰减因子

状态估值函数的贝尔曼最优,贝尔曼方程:

,别忘了权重衰减因子!

  • 几种注意力

注意力机制就是对输入权重分配的关注,最开始使用到注意力机制是在编码器-解码器(encoder-decoder)中, 注意力机制通过对编码器所有时间步的隐藏状态做加权平均来得到下一层的输入变量。

    • soft attention:易于实现:在输入位置上生成分布,重新加权特性并作为输入馈送,使用空间变压器网络关注任意输入位置
    • hard attention:依概率选择一个,关注单个输入位置无法使用梯度下降!需要强化学习!
  • 循环神经网络:RNN的结构、优化

注意三个权重矩阵!U、V、W

同时取决于输入与前一时刻的输出

  • 反向传播:BPTT

损失与梯度都是对所有的t相加!

U、V、W是共享的!

  • 用于机器翻译:

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 国科大深度学习课程中,徐俊刚老师的期末考试是一个重要的评估方式。这门课程主要涉及深度学习的基本概念、算法和应用。期末考试的目的是测试学生对于这门课程内容的理解和掌握程度。 徐俊刚老师的期末考试通常包括两个部分:选择题和编程题。选择题部分涵盖课堂内容的各个方面,涉及到深度学习的基本知识、算法和应用。学生需要根据题目的要求选择正确的答案。编程题部分要求学生使用编程语言实现深度学习的相关算法,并运用这些方法解决给定的问题。 在考试之前,徐俊刚老师通常会给出一份复习指南,包括课堂讲授的重点知识点和参考资料。学生可以依据这份指南进行复习,强化对于各个知识点的理解。 期末考试对于学生来说是一个重要的机会,既可以巩固对于深度学习知识的掌握,也可以检验自己的学习成果。在备考期间,学生可以通过复习课堂笔记、参考相关教材和做一些习题来提高自己的理论和实践能力。 总之,国科大深度学习课程中徐俊刚老师的期末考试是一个考察学生对深度学习知识和算法掌握情况的重要环节。通过复习和备考,学生可以全面提升自己的深度学习能力,并在考试中取得好成绩。 ### 回答2: 国科大深度学习课程中,徐俊刚老师的期末考试内容主要包括以下方面。 首先,考试将涉及深度学习的基本概念和理论知识。学生需要掌握深度学习的基本原理,包括神经网络的结构、参数优化方法、激活函数的选择等。此外,还需要了解深度学习计算机视觉、自然语言处理等领域中的应用。 其次,考试会涉及深度学习的模型和算法。学生需要熟悉常见的深度学习模型,如卷积神经网络CNN)、循环神经网络(RNN)等,并了解它们的原理和工作机制。此外,还需要掌握深度学习中的一些常用算法,如反向传播算法、梯度下降算法等。 第三,考试还会涉及深度学习的实际应用和技术工具。学生需要了解深度学习在实际中的应用案例,如图像分类、机器翻译等。此外,还需要熟悉深度学习的相关技术工具,如TensorFlow、PyTorch等,以及它们的使用方法和调试技巧。 最后,考试可能还会包括一些编程题目。学生可能需要根据给定的问题,设计和实现相应的深度学习模型,并对其进行训练和评估。 总的来说,国科大深度学习徐俊刚老师的期末考试将综合考察学生对深度学习的理论知识、模型算法、实际应用和编程实现能力。学生需充分准备,理解课程内容,提前复习,进行代码练习和实践。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乔卿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值