chaser&upper
西电CS硕士在读,热爱Coding,喜欢分享,欢迎您与我交流~
展开
-
Pytorch中torch.autograd.Variable的用法
构建神经网络的计算图时,需用将Tensor包装起来,形成计算图中的节点。backward()自动计算出所有需要的梯度。来针对某个变量执行grad获得想要的梯度值。原创 2023-09-26 20:36:58 · 193 阅读 · 0 评论 -
PyTorch-transforms方法详解
本文对中的各个预处理方法进行介绍和总结。主要从官方文档中总结而来,官方文档只是将方法陈列,没有归纳总结,顺序很乱,这里总结一共有四大类,方便大家索引:裁剪——Crop中心裁剪:transforms.CenterCrop随机裁剪:transforms.RandomCrop随机长宽比裁剪:transforms.RandomResizedCrop上下左右中心裁剪:transforms.FiveCrop上下左右中心裁剪后翻转,transforms.TenCrop。原创 2023-09-26 13:42:50 · 87 阅读 · 0 评论 -
【卷积神经网络】多输入通道和多输出通道(channels)
多输入通道和多输出通道(channels)5.3 多输入通道和多输出通道5.3.1 多输入通道5.3.2 多输出通道5.3.3 1×11\times 11×1卷积层小结5.3 多输入通道和多输出通道前面两节里我们用到的输入和输出都是二维数组,但真实数据的维度经常更高。例如,彩色图像在高和宽2个维度外还有RGB(红、绿、蓝)3个颜色通道。假设彩色图像的高和宽分别是hhh和www(像素),那么它可以表示为一个3×h×w3\times h\times w3×h×w的多维数组。我们将大小为3的这一维称为通道(c原创 2022-03-18 10:40:49 · 4425 阅读 · 7 评论 -
【卷积神经网络】填充和步幅(padding-and-strides)
【CNN】填充和步幅(padding-and-strides)填充和步幅填充步幅小结填充和步幅在上一节的例子里,我们使用高和宽为3的输入与高和宽为2的卷积核得到高和宽为2的输出。一般来说,假设输入形状是nh×nwn_h\times n_wnh×nw,卷积核窗口形状是kh×kwk_h\times k_wkh×kw,那么输出形状将会是(nh−kh+1)×(nw−kw+1).(n_h-k_h+1) \times (n_w-k_w+1).(nh−kh+1)×(nw−kw+1).所以卷积层的输原创 2022-02-17 17:38:20 · 1552 阅读 · 1 评论 -
【卷积神经网络】二维卷积层(conv-layer)
卷积神经网络-二维卷积层二维卷积层二维互相关运算二维卷积层图像中物体边缘检测通过数据学习核数组互相关运算和卷积运算特征图和感受野小结二维卷积层卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本章中介绍的卷积神经网络均使用最常见的二维卷积层。它有高和宽两个空间维度,常用来处理图像数据。本节中,我们将介绍简单形式的二维卷积层的工作原理。二维互相关运算虽然卷积层得名于卷积(convolution)运算,但我们通常在卷原创 2022-01-07 11:53:21 · 6213 阅读 · 0 评论 -
【深度学习计算】Pytorch-GPU计算
Pytorch-GPU计算GPU计算GPU版本安装查看显卡信息计算设备`Tensor`的GPU计算模型的GPU计算小结GPU计算到目前为止,我们一直在使用CPU计算。对复杂的神经网络和大规模的数据来说,使用CPU来计算可能不够高效。在本节中,我们将介绍如何使用单块NVIDIA GPU来计算。所以需要确保已经安装好了PyTorch GPU版本。GPU版本安装请参考:PyTorch 最新安装教程(2021-07-27)查看显卡信息准备工作都完成后,下面就可以通过nvidia-smi命令来查看显卡信息原创 2022-01-07 11:14:11 · 934 阅读 · 1 评论 -
【深度学习计算】模型/Tensor的读取和存储(PyTorch)
模型/Tensor的读取和存储读取和存储读写`Tensor`读写模型`state_dict`保存和加载模型1. 保存和加载`state_dict`(推荐方式)2. 保存和加载整个模型小结读取和存储到目前为止,我们介绍了如何处理数据以及如何构建、训练和测试深度学习模型。然而在实际中,我们有时需要把训练好的模型部署到很多不同的设备。在这种情况下,我们可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。读写Tensor我们可以直接使用save函数和load函数分别存储和读取Tensor。save使用P原创 2022-01-07 11:07:36 · 2042 阅读 · 0 评论 -
【深度学习计算】自定义层(custom-layer)
自定义层(custom-layer)模型参数的延后初始化自定义层不含模型参数的自定义层含模型参数的自定义层小结模型参数的延后初始化由于使用Gluon创建的全连接层的时候不需要指定输入个数。所以当调用initialize函数时,由于隐藏层输入个数依然未知,系统也无法得知该层权重参数的形状。只有在当形状已知的输入X传进网络做前向计算net(X)时,系统才推断出该层的权重参数形状为多少,此时才进行真正的初始化操作。但是使用PyTorch在定义模型的时候就要指定输入的形状,所以也就不存在这个问题了。自定义层原创 2022-01-07 11:01:32 · 605 阅读 · 0 评论 -
【深度学习计算】模型参数的访问、初始化和共享
模型参数的访问、初始化和共享模型参数的访问、初始化和共享访问模型参数初始化模型参数自定义初始化方法共享模型参数小结模型参数的访问、初始化和共享在(线性回归的简洁实现)中,我们通过init模块来初始化模型的参数。我们也介绍了访问模型参数的简单方法。本节将深入讲解如何访问和初始化模型参数,以及如何在多个层之间共享同一份模型参数。我们先定义一个与上一节中相同的含单隐藏层的多层感知机。我们依然使用默认方式初始化它的参数,并做一次前向计算。与之前不同的是,在这里我们从nn中导入了init模块,它包含了多种模型初原创 2022-01-05 19:50:40 · 311 阅读 · 0 评论 -
Tensorflow设置GPU训练模型
Tensorflow设置GPU训练模型添加以下代码添加以下代码import tensorflow as tfgpus = tf.config.list_physical_devices("GPU")if gpus: tf.config.experimental.set_memory_growth(gpus[0],True)加油!感谢!努力!原创 2021-12-05 19:52:39 · 1966 阅读 · 0 评论 -
【深度学习计算】模型构造(pytorch model-construction)
《动手学深度学习》模型构造模型构造继承`Module`类来构造模型`Module`的子类`Sequential`类`ModuleList`类`ModuleDict`类构造复杂的模型小结模型构造让我们回顾一下在3.10节(多层感知机的简洁实现)中含单隐藏层的多层感知机的实现方法。我们首先构造Sequential实例,然后依次添加两个全连接层。其中第一层的输出大小为256,即隐藏层单元个数是256;第二层的输出大小为10,即输出层单元个数是10。我们在上一章的其他节中也使用了Sequential类构造模型原创 2021-11-23 18:11:28 · 234 阅读 · 0 评论 -
【深度学习实战】Kaggle比赛:房价预测(kaggle-house-price)
实战Kaggle比赛:房价预测实战Kaggle比赛:房价预测Kaggle比赛获取和读取数据集预处理数据训练模型KKK折交叉验证模型选择预测并在Kaggle提交结果小结Jupyternotebook读取数据预处理数据连续数值的特征做标准化(standardization)离散数值转成指示特征训练模型K折交叉验证模型选择模型预测实战Kaggle比赛:房价预测作为深度学习基础篇章的总结,我们将对本章内容学以致用。下面,让我们动手实战一个Kaggle比赛:房价预测。本节将提供未经调优的数据的预处理、模型的设计和原创 2021-11-23 16:19:31 · 14532 阅读 · 23 评论 -
【深度学习】数值稳定性和模型初始化(numerical-stability-and-init)
数值稳定性和模型初始化数值稳定性和模型初始化衰减和爆炸随机初始化模型参数PyTorch的默认随机初始化Xavier随机初始化小结参考文献数值稳定性和模型初始化理解了正向传播与反向传播以后,我们来讨论一下深度学习模型的数值稳定性问题以及模型参数的初始化方法。深度模型有关数值稳定性的典型问题是衰减(vanishing)和爆炸(explosion)。衰减和爆炸当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(原创 2021-11-23 13:10:17 · 284 阅读 · 0 评论 -
【深度学习】正向传播、反向传播和计算图(backprop)
正向传播、反向传播和计算图正向传播、反向传播和计算图正向传播正向传播的计算图反向传播训练深度学习模型小结正向传播、反向传播和计算图前面几节里我们使用了小批量随机梯度下降的优化算法来训练模型。在实现中,我们只提供了模型的正向传播(forward propagation)的计算,即对输入计算模型输出,然后通过autograd模块来调用系统自动生成的backward函数计算梯度。基于反向传播(back-propagation)算法的自动求梯度极大简化了深度学习模型训练算法的实现。本节我们将使用数学和计算图(原创 2021-11-23 13:05:46 · 2097 阅读 · 0 评论 -
《动手学深度学习》丢弃法(dropout)
丢弃法(dropout)丢弃法方法从零开始实现定义模型参数定义模型训练和测试模型简洁实现小结参考文献丢弃法除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dropout)[1] 来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。方法回忆一下,3.8节(多层感知机)的图3.3描述了一个单隐藏层的多层感知机。其中输入个数为4,隐藏单元个数为5,且隐藏单元hih_ihi(i=1,…,5i=1, \ldots, 5i=1,…,5)的计原创 2021-11-23 12:58:16 · 582 阅读 · 0 评论 -
【神经网络】权重衰减(weight-decay)
权重衰减(weight-decay)权重衰减方法高维线性回归实验从零开始实现初始化模型参数定义L2L_2L2范数惩罚项定义训练和测试观察过拟合使用权重衰减简洁实现小结权重衰减上一节中我们观察了过拟合现象,即模型的训练误差远小于它在测试集上的误差。虽然增大训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价高昂。本节介绍应对过拟合问题的常用方法:权重衰减(weight decay)。方法权重衰减等价于 L2L_2L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩原创 2021-11-17 22:01:49 · 12130 阅读 · 0 评论 -
模型选择、欠拟合和过拟合(underfit-overfit)
模型选择、欠拟合和过拟合模型选择、欠拟合和过拟合训练误差和泛化误差模型选择验证数据集KKK折交叉验证欠拟合和过拟合模型复杂度训练数据集大小多项式函数拟合实验生成数据集定义、训练和测试模型三阶多项式函数拟合(正常)线性函数拟合(欠拟合)训练样本不足(过拟合)小结模型选择、欠拟合和过拟合在前几节基于Fashion-MNIST数据集的实验中,我们评价了机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不一定更准确原创 2021-11-17 21:23:55 · 534 阅读 · 0 评论 -
【神经网络】多层感知机的具体实现
多层感知机-从零开始实现多层感知机的从零开始实现获取和读取数据定义模型参数定义激活函数定义模型定义损失函数训练模型小结多层感知机的从零开始实现我们已经从上一节里了解了多层感知机的原理。下面,我们一起来动手实现一个多层感知机。首先导入实现所需的包或模块。import torchimport numpy as npimport syssys.path.append("..")import d2lzh_pytorch as d2l获取和读取数据这里继续使用Fashion-MNIST数据集。我们原创 2021-11-17 19:27:12 · 490 阅读 · 0 评论 -
【神经网络】多层感知机
多层感知机我们已经介绍了包括线性回归和softmax回归在内的单层神经网络。然而深度学习主要关注多层模型。在本节中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。隐藏层多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。隐藏层位于输入层和输出层之间。图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。带有隐藏层的多层感知机在图所示的多层感知机中,输入和输出个数分别为4和3,中间的隐藏层原创 2021-11-17 19:10:02 · 1716 阅读 · 0 评论 -
Softmax回归的简洁实现(softmax-regression-pytorch)
3.7 softmax回归的简洁实现我们在3.3节(线性回归的简洁实现)中已经了解了使用Pytorch实现模型的便利。下面,让我们再次使用Pytorch来实现一个softmax回归模型。首先导入所需的包或模块。import torchfrom torch import nnfrom torch.nn import initimport numpy as npimport syssys.path.append("..") import d2lzh_pytorch as d2l3.7.1 获原创 2021-11-03 22:27:13 · 457 阅读 · 0 评论 -
Softmax回归的从零开始实现(softmax-regression-scratch)
《动手学深度学习》Softmax回归的从零开始实现Softmax回归的从零开始实现获取和读取数据初始化模型参数实现softmax运算定义模型定义损失函数计算分类准确率训练模型预测小结Softmax回归的从零开始实现这一节我们来动手实现softmax回归。首先导入本节实现所需的包或模块。import torchimport torchvisionimport numpy as npimport syssys.path.append("..") # 为了导入上层目录的d2lzh_pytorchi原创 2021-11-03 21:33:31 · 366 阅读 · 0 评论 -
《动手学深度学习》图像分类数据集(Fashion-MNIST)
图像分类数据集(Fashion-MNIST)图像分类数据集(Fashion-MNIST)获取数据集读取小批量小结参考文献数据集下载图像分类数据集(Fashion-MNIST)在介绍softmax回归的实现前我们先引入一个多类图像分类数据集。它将在后面的章节中被多次使用,以方便我们观察比较算法之间在模型精度和计算效率上的区别。图像分类数据集中最常用的是手写数字识别数据集MNIST[1]。但大部分模型在MNIST上的分类精度都超过了95%。为了更直观地观察算法之间的差异,我们将使用一个图像内容更加复杂的原创 2021-11-03 21:17:50 · 2240 阅读 · 0 评论 -
《动手学深度学习》softmax回归(PyTorch版)
softmax-regression1 分类问题2 softmax回归模型3 单样本分类的矢量计算表达式4 小批量样本分类的矢量计算表达式5 交叉熵损失函数6 模型预测及评价小结前几节介绍的线性回归模型适用于输出为连续值的情景。在另一类情景中,模型输出可以是一个像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使用诸如softmax回归在内的分类模型。和线性回归不同,softmax回归的输出单元从一个变成了多个,且引入了softmax运算使输出更适合离散值的预测和训练。本节以softmax回归模原创 2021-10-26 21:35:51 · 266 阅读 · 0 评论 -
《动手学深度学习》线性回归的简洁实现(linear-regression-pytorch)
线性回归的简洁实现(linear-regression-pytorch)1. 生成数据集2. 读取数据3. 定义模型4. 初始化模型参数5. 定义损失函数6. 定义优化算法7. 训练模型8. 小结随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节更简洁的代码来实现同样的模型。在本节中,我们将介绍如何使用PyTorch更方便地实现线性回归的训练。1. 生成数据集我们生成与上一节中相同的数据集。其中features是训练数据特征,labels是标签。num_input原创 2021-10-22 21:37:38 · 800 阅读 · 0 评论 -
《动手学深度学习》线性回归从零开始(linear-regression-scratch)
线性回归的从零开始实现前言1. 生成数据集2. 读取数据3. 初始化模型参数4. 定义模型5. 定义损失函数6. 定义优化算法7. 训练模型8. 小结前言在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,会导致我们很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用Tensor和autograd来实现一个线性回归的训练。首先,导入本节中实验所需的包或模块,其中的matplotlib包可用于作图,且设置成嵌入显示。原创 2021-10-20 22:31:05 · 349 阅读 · 0 评论 -
【深度学习】RNN、LSTM、GRU 网络使用教程 (二)
RNN、LSTM、GRU 网络使用教程二前言1. 数据处理2. 定义网络结构3. 定义损失函数4. 定义优化器5. 模型训练6. 验证模型效果7. LSTM ---> GRU前言在 RNN实战-姓名分类 中介绍了最基础 RNN 网络结构的搭建,个人感觉对 RNN 网络结构的理解与使用远远不够,缺乏普遍性。本文将对 pytorch 中的 RNN 网络结构的使用进行介绍,力求在代码逻辑层面达到普遍性。本文暂不涉及网络结构的数学理论基础。【深度学习】RNN、LSTM、GRU 网络使用教程 (一)原创 2021-10-12 14:56:16 · 983 阅读 · 0 评论 -
【深度学习】RNN、LSTM、GRU 网络使用教程 (一)
RNN、LSTM、GRU 网络使用教程一前言1. 数据处理2. 定义网络结构3. 定义损失函数4. 定义优化器5. 模型训练&验证前言在 RNN实战-姓名分类 中介绍了最基础 RNN 网络结构的搭建,个人感觉对 RNN 网络结构的理解与使用远远不够,缺乏普遍性。本文将对 pytorch 中的 RNN 网络结构的使用进行介绍,力求在代码逻辑层面达到普遍性。本文暂不涉及网络结构的数学理论基础。1. 数据处理无论是 RNN、LSTM、GRU 的哪一种网络结构,它们对于输入都有统一的要求,输原创 2021-10-12 14:47:14 · 1070 阅读 · 0 评论 -
《动手学深度学习》线性回归(PyTorch版)
线性回归(PyTorch版)1. 线性回归1.1 线性回归的基本要素1.1.1 模型定义1.1.2 模型训练(1) 训练数据(2) 损失函数(3) 优化算法1.1.3 模型预测1.2 线性回归的表示方法1.2.1 神经网络图1.2.2 矢量计算表达式小结1. 线性回归线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类原创 2021-09-30 20:22:07 · 347 阅读 · 0 评论 -
《动手学深度学习》自动求梯度
《动手学深度学习》自动求梯度概念Tensor梯度在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。本节将介绍如何使用autograd包来进行自动求梯度的有关操作。概念上一节介绍的Tensor是这个包的核心类,如果将其属性.requires_grad设置为True,它将开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。完成计算后,可以调用.backward()来完成所有原创 2021-09-19 21:00:01 · 464 阅读 · 0 评论 -
《动手学深度学习》PyTorch: 数据操作
PyTorch: 数据操作创建`Tensor`Tensor 操作算术操作索引改变形状线性代数2.2.3 广播机制2.2.4 运算的内存开销2.2.5 `Tensor`和NumPy相互转换`Tensor`转NumPyNumPy数组转`Tensor`2.2.6 `Tensor` on GPU在深度学习中,我们通常会频繁地对数据进行操作。作为动手学深度学习的基础,本节将介绍如何对内存中的数据进行操作。在PyTorch中,torch.Tensor是存储和变换数据的主要工具。如果你之前用过NumPy,你会发现Te原创 2021-09-16 21:11:31 · 404 阅读 · 0 评论 -
《动手学深度学习》环境配置(PyTorch版)
环境配置(PyTorch版)1 环境配置1.1 Anaconda1.2 Jupyter1.3 PyTorch1.4 其他2. PyTorch 最新安装教程1 环境配置本节简单介绍一些必要的软件的安装与配置,由于不同机器软硬件配置不同,所以不详述,遇到问题请善用Google。1.1 AnacondaAnaconda是Python的一个开源发行版本,主要面向科学计算。我们可以简单理解为,Anaconda是一个预装了很多我们用的到或用不到的第三方库的Python。而且相比于大家熟悉的pip install原创 2021-09-16 21:04:16 · 1288 阅读 · 0 评论 -
《动手学深度学习》深度学习简介(完整版)
《动手学深度学习》PyTorch版深度学习简介起源发展成功案例特点小结练习参考文献深度学习简介你可能已经接触过编程,并开发过一两款程序。同时你可能读过关于深度学习或者机器学习的铺天盖地的报道,尽管很多时候它们被赋予了更广义的名字:人工智能。实际上,或者说幸运的是,大部分程序并不需要深度学习或者是更广义上的人工智能技术。例如,如果我们要为一台微波炉编写一个用户界面,只需要一点儿工夫我们便能设计出十几个按钮以及一系列能精确描述微波炉在各种情况下的表现的规则。再比如,假设我们要编写一个电子邮件客户端。这样原创 2021-09-16 20:52:11 · 2475 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)
《动手学深度学习》PyTorch版深度学习简介起源发展成功案例特点小结练习参考文献深度学习简介你可能已经接触过编程,并开发过一两款程序。同时你可能读过关于深度学习或者机器学习的铺天盖地的报道,尽管很多时候它们被赋予了更广义的名字:人工智能。实际上,或者说幸运的是,大部分程序并不需要深度学习或者是更广义上的人工智能技术。例如,如果我们要为一台微波炉编写一个用户界面,只需要一点儿工夫我们便能设计出十几个按钮以及一系列能精确描述微波炉在各种情况下的表现的规则。再比如,假设我们要编写一个电子邮件客户端。这样原创 2021-09-16 20:45:30 · 6270 阅读 · 0 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day4】基于深度学习的目标检测(object_detection)
基于深度学习的目标检测(object_detection)1. 目标检测相关介绍2. RCNN系列模型3. YOLO系列模型1. 目标检测相关介绍目标检测要解决的问题适应不同尺度多样化2. RCNN系列模型(1) 输入测试图像(2) 利用Selective Search算法在图像中从下到上提取2000个左右的可能包含物体的候选区域(3) 因为取出的区域大小各自不同,所以需要将每个Region Proposal缩放成统一的227x227的大小并输入到CNN,将CNN的fc7层的输原创 2021-08-24 15:10:54 · 1104 阅读 · 5 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day4】图像风格迁移(Neural_sytle_transfer)
图像风格迁移(Neural_sytle_transfer)1. 图像风格迁移原理2. 图像风格迁移实现3. 图像风格迁移实验结果1. 图像风格迁移原理一般的图像风格迁移,根据内容图像和风格图像优化输入图像,使内容损失函数和风格损失函数尽可能小。问题:根据损失函数调整输入数据,每生成一个图像相当训练一个模型,需要很长时间。快速图像风格迁移模型组成:转换网络和损失网络转换网络:训练参数,将内容图像转换成迁移图像损失网络:计算迁移图像和风格图像的风格损失,以及迁移图像和原图像的内容损失2.原创 2021-08-24 14:41:16 · 834 阅读 · 2 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day4】基于深度学习的图像分类(image_classification)
基于深度学习的图像分类1. 图像分类任务2. 常用数据集及模型介绍2.1 发展简介2.2 模型介绍3. 基于深度学习模型逻辑3.1 基本算法过程3.2 多组卷积+激活+池化效果4. 模型及代码分析4.1 AlexNet(2012)4.2 VGGNets(2014)4.3 ResNet(2015)5. 参考文献1. 图像分类任务图像分类:根据图像的语义信息区分不同类别图像,是计算机视觉中重要问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。应用:安防领域的人脸识别智能视原创 2021-08-24 14:21:22 · 1260 阅读 · 2 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day4】图像标题生成-image_caption_generation(encoder-decoder)
图像标题生成1. 概述1.1 图像标题生成1.2 CNN1.3 Decoder1.4 与文本翻译模型对比2. 模型原理2.1 图像标题生成模型2.2 学习目标、损失函数3. 代码实现3.1 数据集3.2 数据预处理3.3 构建模型4. 实验结果4.1 损失曲线4.2 测试模型5. 参考文献1. 概述1.1 图像标题生成图像标题生成模型结合了计算机视觉和机器翻译的最新进展,利用神经网络生成真实的图像标题。图像标题模型以图像作为输入,最大化产生给定图像的真实标题的可能性,并且可以在新的图像上生成标题原创 2021-08-24 12:47:39 · 950 阅读 · 1 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day4】深度强化学习(Deep Q-learning)
深度强化学习(Deep Q-learning)1. 深度强化学习简介2. DQN算法解析3. DQN在游戏中的应用4. 代码讲解4.1 数据预处理4.2 网络结构4.3 Exploration & Exploitation4.4 经验回放机制4.5 经验存储4.6 经验回放1. 深度强化学习简介传统的强化学习通常是使用马尔可夫决策过程来描述,它局限于动作空间与采样空间都很小,而且一般都是在离散空间中。在实际情况中,输入往往是连续值(如图片,声音等),比如Flappy Bird游戏。深度原创 2021-08-24 12:23:54 · 428 阅读 · 0 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day3】去噪自编码器(Denoising)
去噪自编码器(Denoising)1. 问题背景2. 问题定义3. 实验方案3.1 数据来源3.2 获取带噪声图片3.3 获取带噪声图片3.4 模型实现3.5 Encoder实现3.6 Encoder实现4. 实验效果1. 问题背景简介自编码器(AutoEncoder)是深度学习中的⼀类无监督学习模型,由encoder 和decoder 两部分组成。encoder 将原始表示编码成隐层表示;decoder 将隐层表示解码成原始表示;训练目标为最小化重构误差;隐层特征维度⼀般低于原始特征维原创 2021-08-24 11:28:13 · 699 阅读 · 0 评论 -
【深度学习与图神经网络核心技术实践应用高级研修班-Day3】基于深度学习的视频行为识别(action_recognition)
基于深度学习的视频行为识别1. 基于深度学习的视频行为识别2. 基于C3D的视频行为识别方法3. 基于LSTM的视频行为识别方法4. 基于Attention的行为识别方法1. 基于深度学习的视频行为识别视频行为识别视频行为识别是指给一个视频片段进行分类,类别通常是各类人的动作。一般使用的数据库都先将动作分割好了,一个视频片断中包含一段明确的动作;时间较短(几秒钟)且有唯一确定的label;可以看作是输入为视频,输出为动作标签的多分类问题;视频行为识别与传统的基于人工设计特征的方法相原创 2021-08-24 11:10:36 · 1712 阅读 · 1 评论