TensorFlow学习笔记(二)

这篇笔记详细解释了深度学习中的一些关键概念,包括主成分分析法、各种距离度量(如曼哈顿距离、欧氏距离、马氏距离)、交叉熵和KL散度等。还涉及到了卷积神经网络、全连接层、支持向量机以及内存管理问题,如VGGNet的参数量和训练时的内存需求。
摘要由CSDN通过智能技术生成

《深度学习:一起玩转Tensorlayer》学习补充笔记

主要笔记在CNKI E-Study中,此文档作为补充说明

名词解释

  • PCA (principle component analysis):主成分分析法
  • 距离与范式
    • 曼哈顿距离(L1)
    • 欧氏距离(L2)
    • 马氏距离(L3)
  • MSE (mean squared error):均方误差
  • KLD (KL Divergence)KL散度,相对熵,量化两种概率分布P和Q之间差异的方式。
  • 公式一:稀疏性
  • Binomial Distribution:二项式分布
  • Entropy:熵,一般用H表示
    • 公式2
  • VAEs (Variational Autoencoders):变分自编码器
  • Variational Bayesian Methods:变分贝叶斯法
  • cross-entropy:交叉熵,编码方案不一定完美时(由于对概率分布的估计不一定正确),平均编码长度。是神经网络常用的损失函数。
    • 为什么在神经网络中使用交叉熵损失函数,而不是K-L散度?

      K-L散度=交叉熵-熵,即 DKL( p||q )=H(p,q)−H§。在神经网络所涉及到的范围内,H§不变,则DKL( p||q )等价H(p,q)。

  • CNN (Convolutional Neural Networks):卷积神经网络
  • Stride:步长
  • Zero-padding:外围补零
  • R-CNN:区域卷积神经网络
  • SVM(Support Vector Machine)支持向量机
  • ROI:Region Of Interest
  • RPN:Region Proposal Networks
  • YOLO(You Only Look Once):CNN负责特征提取,全连接层负责分类识别
  • FC:全连接
  • VGGNet内存问题:VGGNet参数大约520MB,训练时,如果要保存反向传播梯度值,将占用1GB内存(一张图片),在GPU上采用mini batch训练的方法,需要注意显卡内存是否足够(呵,不够)。
  • GoogLeNet:(利用1×1卷积核进行降维)
  • ResNet
  • 数据增强:通过对图像的变换,创造出更多的图像

一个DL名词解释汇总

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值