机器学习(浙大课程b站)第四章

机器学习(浙大课程b站)第四章:深度学习

笔记

  1. 深度学习数据库准备
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  2. 自编码器
    编码器采用的是分层初始化的思想
    在这里插入图片描述
    首先训练一个小网络输入是X,输出也是X
    在这里插入图片描述
    在这里插入图片描述
    通过这个网络使中间的三维数据浓缩了原有的四维数据的信息可看做是对原有四维数据的编码,又由于这是从X到其自身的编码,因此将该算法叫做自编码器。可用后向传播算法训练该网络。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  3. 卷积神经网络(Convolutional Neural Network, CNN)LeNet
    卷积神经网络:由手工设计卷积核,编程自动学习卷积核。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    步长(stride):做完一次卷积,下一次离这次隔多远。
    若stride=1,每次移一格
    在这里插入图片描述
    若stride=[1,1],第一层结束后,下移一格,继续第二行的数
    在这里插入图片描述
    若stride=2,每次移两个,不足两格的地方就不做卷积。
    在这里插入图片描述
    若stride=[2,2],一层结束后,下移两格,不足两格就不算了。
    在这里插入图片描述
    若图像大小是(M,N),卷积核大小(m,n),步长(u,v),则特征图大小为:(我自己计算得)
    在这里插入图片描述
    其中除法为整除!
    老师的算法:
    在这里插入图片描述
    不够的话补零
    在这里插入图片描述
    补多少的零呢?我自己算得(补上左边和下面):
    在这里插入图片描述
    其中除为整除,先算整除,再算乘法。
    老师的算法:
    在这里插入图片描述
    补零叫做zero-padding或者padding
    在这里插入图片描述
    对于3*3*5卷积核:
    无偏置情况下:5*5*3=75,75*6=450
    每个卷积核自带偏置的话:5*5*3+1=76,76*6=456
    在这里插入图片描述
    在这里插入图片描述
    共享权重(weight sharing)
    在这里插入图片描述
    卷积神经网络中的降采样层
    在这里插入图片描述
    用16个5*5*6的卷积核,stride为1,作用在14*14*6的特征图上,得到16个10*10 的特征图。
    在这里插入图片描述
    基本在分类问题上,用softmax和交叉熵,不直接用上面那个。
    在这里插入图片描述
    可看出主要参数在全连接层。
    整个网络的计算速度取决于卷积层,整个网络的参数个数取决于全连接层。
  4. 卷积神经网络AlexNet
    AlexNet的改进
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  5. 深度学习编程工具(Caffe和Tensorflow)
    在这里插入图片描述
    在这里插入图片描述
  6. 近年来流行的网络结构
    在这里插入图片描述
    在这里插入图片描述
    VGGNET对ALEXNET的改进包括两个方面:
    ①增加了网络的深度②用多个3*3卷积核叠加代替更大的卷积核,用以增加感受野(RECEPTIVE FIELD)
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    VGGNET是一个计算和存储开销都较大的网络
    在这里插入图片描述
    在这里插入图片描述
    ResNet: Residual Net残差网络
    在这里插入图片描述
    在这里插入图片描述
    由于浅层和深层的特征图在维度上不一致,导致无法直接相加,因此用线性变换将浅层特征图维度编程深层的维度。
    在这里插入图片描述
  7. 卷积神经网络的应用
    应用-人脸识别
    迁移学习(Transfer Learning):把domain的经验迁移到另一个domain中去。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    补充mooc上这一章有的而b站上没有的的其他内容
  8. 目标检测与分割
    在这里插入图片描述
    三种难度逐渐升级
    RCNN(Regions with CNN features)
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    系统输出仍然采用的是分类的softmax层加上是个坐标的回归
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    语义分割:检测和识别出图像的目标,确定每个目标所对应的像素。
    在这里插入图片描述
    利用上采样层(up-samping layer)对特征图进行放大。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  9. 时间序列的深度学习
    循环神经网络(RECURRENT NEURAL NETWORK, RNN)
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    RNN的不足:状态之间的转移函数及状态到输出的转移函数都过于简单。
    在这里插入图片描述
    基于人类的记忆机制获得的灵感。
  10. 生成对抗模型
    如何让深度神经网络具有创造力?
    生成对抗网络(generative adversary network, GAN)
    基本原理:输入网络的图片在高维空间中具有某种特定的概率分布,而网络需要学习的,正是这种概率分布,而不是像CNN那样单纯的标签,由于维度太高,传统估计的方法没有用。因此提出借用博弈论的思想构造两个深度神经网络,一个叫做生成器(generator),另一个叫做判别器(discriminator),让他们相互对抗,在对抗中相互进步。
    在这里插入图片描述
    当G, D二者的模型容量(capacity)足够时,二者将达到纳什均衡。此时判别器对真实样本和生成样本的预测概率均为二分之一,即生成样本与真实样本达到了难以区分的地步。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    GAN的缺点:①训练不稳定,难以直观观测训练过程,难以有效收敛,很多时候收敛需要运气。②模式崩溃(mode collapse)

测验

1在LENET网络中,如果一个64×64的图像和一个kernel_size=7×7,padding=0,stride=3的卷积核进行操作,请问经过卷积操作后获得的特征图的尺寸为?
A. 19×19
B. 21×21
C. 18×18
D. 20×20
正确答案:D

2‎在ALEXNET网络的学习中,下面哪些是它的重要改进功能
A. MaxPooling
B. dropout
C.以ReLU函数代替sigmoid和tanh函数
D.都是
正确答案:D

3‌在计算感受野的问题中,当一个输入,如果步长stride为2,经过三层3×3的卷积核,问最后输出的每一个点的感受野的大小为多少?
A. 12×12
B. 15×15
C. 3×3
D. 7×7
正确答案:B

4 IOU即交并比,是目标检测中衡量目标检测算法准确度的一个重要指标。假设真实框的面积大小为9,检测框的大小为8,两个框重叠的面积为3,那么请问IoU的值为()
A.3/14
B.3/8
C.3/9
D.3/17
正确答案:A

5判断(2分)
‍R-CNN是用selective search产生候选proposals,然后将其输入到CNN中最后使用SVM判断结果
A.√
B.×
正确答案:A

6‎反卷积层的原理是首先将填充原特征图中的特征点,之后使用卷积核在原特征图上滑动由此得到更大的特征图
A.√
B.×
正确答案:A
7 ‎GAN训练过程中,无论生成器的优劣,其输出的标签都被设为0
A.√
B.×
正确答案:A

8‎由于GAN采用了监督器和生成器“博弈”的策略,所以GAN网络总是能稳定的收敛
A.×
B.√
正确答案:A

咋说呢,本来是想着之后会用到机器学习的相关知识来处理自己方向的一些内容,所以找到了这门课程想了解一下机器学习的基本理论,结果发现光理论还是无法深入了解机器学习的本质,编程是不可缺少的。老师讲代码的时候,我听得也不是很认真,希望早日能够克服对编程的恐惧心理吧!学习支持向量机的时候,跟着老师的思路一步一步推导,给我的感觉是非常舒畅的,所以第二章我有很多感悟,而往后的课程我感觉有些难并且不好理解,从我的笔记可以看出,对PPT的截图比较多,自己的感悟少了,多是直接接受老师说的知识,希望自己能够认认真真的听每一个网课,不论困难还是简单,听不懂的就多听几遍吧。开始了就不想放弃了!虽然菜也要菜得有骨气。
在这里插入图片描述

浙江大学人工智能课程课件,内容有: Introduction Problem-solving by search( 4 weeks) Uninformed Search and Informed (Heuristic) Search (1 week) Adversarial Search: Minimax Search, Evaluation Functions, Alpha-Beta Search, Stochastic Search Adversarial Search: Multi-armed bandits, Upper Confidence Bound (UCB),Upper Confidence Bounds on Trees, Monte-Carlo Tree Search(MCTS) Statistical learning and modeling (5 weeks) Probability Theory, Model selection, The curse of Dimensionality, Decision Theory, Information Theory Probability distribution: The Gaussian Distribution, Conditional Gaussian distributions, Marginal Gaussian distributions, Bayes’ theorem for Gaussian variables, Maximum likelihood for the Gaussian, Mixtures of Gaussians, Nonparametric Methods Linear model for regression: Linear basis function models; The Bias-Variance Decomposition Linear model for classification : Basic Concepts; Discriminant Functions (nonprobabilistic methods); Probabilistic Generative Models; Probabilistic Discriminative Models K-means Clustering and GMM & Expectation–Maximization (EM) algorithm, BoostingThe Course Syllabus Deep Learning (4 weeks) Stochastic Gradient Descent, Backpropagation Feedforward Neural Network Convolutional Neural Networks Recurrent Neural Network (LSTM, GRU) Generative adversarial network (GAN) Deep learning in NLP (word2vec), CV (localization) and VQA(cross-media) Reinforcement learning (1 weeks) Reinforcement learning: introduction
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值