自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Alkali!的博客

永远自律,永远年轻!

  • 博客(455)
  • 资源 (21)
  • 收藏
  • 关注

原创 10-2 注意力评分函数

10-2节使用了高斯核来对查询和键之间的关系建模。(10.2.6)中的 高斯核指数部分可以视为注意力评分函数(attention scoring function), 简称, 然后把这个函数的输出结果输入到softmax函数中进行运算。通过上述步骤,将得到与键对应的值的概率分布(即注意力权重)。最后,注意力汇聚的输出就是基于这些注意力权重的值的加权和。从宏观来看,上述算法可以用来实现 图10.1.3中的注意力机制框架。图10.3.1说明了, 其中a表示注意力评分函数。

2024-09-04 21:46:34 813

原创 10-1 注意力提示

为了确保读者现在投入的注意力是值得的, 作者们尽全力(全部的注意力)创作一本好书。自经济学研究稀缺资源分配以来,人们正处在“注意力经济”时代, 即人类的注意力被视为可以交换的、有限的、有价值的且稀缺的商品。许多商业模式也被开发出来去利用这一点: 在音乐或视频流媒体服务上,人们要么消耗注意力在广告上,要么付钱来隐藏广告;为了在网络游戏世界的成长,人们要么消耗注意力在游戏战斗中, 从而帮助吸引新的玩家,要么付钱立即变得强大。总之,注意力不是免费的。注意力是稀缺的,而环境中的干扰注意力的信息却并不少。

2024-09-03 22:45:58 926

原创 9-8 束搜索

束搜索通过灵活选择束宽,在正确率和计算代价之间进行权衡。贪心搜索所选取序列的计算量最小,但精度相对较低。序列搜索策略包括贪心搜索、穷举搜索和束搜索。穷举搜索所选取序列的精度最高,但计算量最大。

2024-09-01 22:12:26 199

原创 9-7 序列到序列学习(seq2seq)

如果愿意,也可以使用指定的非零值来替换这些项。

2024-08-31 16:32:00 1052

原创 9-6 编码器-解码器架构

正如我们在 9-5节中所讨论的, 机器翻译是序列转换模型的一个核心问题, 其输入和输出都是长度可变的序列。为了处理这种类型的输入和输出, 我们可以设计一个包含两个主要组件的架构: 第一个组件是一个: 它接受一个长度可变的序列作为输入, 并将其转换为具有固定形状的编码状态。第二个组件是: 它将固定形状的编码状态映射到长度可变的序列。这被称为, 如 图9.6.1 所示。。

2024-08-29 16:27:05 316 1

原创 9-5 机器翻译与数据集

语言模型是自然语言处理的关键, 而机器翻译是语言模型最成功的基准测试。因为机器翻译正是将输入序列转换成输出序列的的核心问题。序列转换模型在各类现代人工智能应用中发挥着至关重要的作用。为此,本节将介绍机器翻译问题及其后文需要使用的数据集。。事实上,这个研究领域可以追溯到数字计算机发明后不久的20世纪40年代, 特别是在第二次世界大战中使用计算机破解语言编码。

2024-08-29 15:27:11 770

原创 9-4 双向循环神经网络

双向循环神经网络的一个关键特性是:使用来自序列两端的信息来估计输出。也就是说,我们使用来自过去和未来的观测信息来预测当前的观测。但是在对下一个词元进行预测的情况中,这样的模型并不是我们所需的。因为在预测下一个词元时,我们终究无法知道下一个词元的下文是什么, 所以将不会得到很好的精度。具体地说,在训练期间,我们能够利用过去和未来的数据来估计现在空缺的词;而在测试期间,我们只有过去的数据,因此精度将会很差。下面的实验将说明这一点。另一个严重问题是,双向循环神经网络的计算速度非常慢。

2024-08-28 00:18:47 749

原创 9-3 深度循环神经网络

到目前为止,我们只讨论了具有一个单向隐藏层的循环神经网络。其中,隐变量和观测值与具体的函数形式的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,这就不是一个大问题。然而,对一个单层来说,这可能具有相当的挑战性。之前在线性模型中,我们通过添加更多的层来解决这个问题。而在循环神经网络中,我们首先需要确定如何添加更多的层, 以及在哪里添加额外的非线性,因此这个问题有点棘手。事实上,我们可以将多层循环神经网络堆叠在一起, 通过对几个简单层的组合,产生了一个灵活的机制。特别是,数据可能与不同层的堆叠有关。

2024-08-27 16:38:40 413

原创 9-2 长短期记忆网络(LSTM)

在初始化函数中, 长短期记忆网络的隐状态需要返回一个额外的记忆元, 单元的值为0,形状为(批量大小,隐藏单元数)。因此,我们得到以下的状态初始化。实际模型的定义与我们前面讨论的一样: 提供三个门和一个额外的记忆元。请注意,只有隐状态才会传递到输出层, 而记忆元CtC_{t}Ct​不直接参与输出计算。

2024-08-26 23:52:04 1218

原创 9-1 门控循环单元(GRU)

现在我们将定义隐状态的初始化函数。与 8-5节中定义的函数一样, 此函数返回一个形状为(批量大小,隐藏单元个数)的张量,张量的值全部为零。现在我们准备定义门控循环单元模型, 模型的架构与基本的循环神经网络单元是相同的, 只是权重更新公式更为复杂。H, = state# 计算更新门 Z。使用当前输入 X 和前一个隐藏状态 H 与对应权重矩阵相乘,加上偏置 b_z,然后应用 sigmoid 函数以得到更新门的值# 计算重置门 R。与更新门类似的计算,但使用不同的权重和偏置。

2024-08-25 00:20:36 1020

原创 8-5 循环神经网络 RNN 的实现

高级API提供了循环神经网络的实现。我们构造一个具有256个隐藏单元的单隐藏层的循环神经网络层rnn_layer。事实上,我们还没有讨论多层循环神经网络的意义。现在仅需要将多层理解为一层循环神经网络的输出被用作下一层循环神经网络的输入就足够了。我们使用张量来初始化隐状态,它的形状是(隐藏层数,批量大小,隐藏单元数)。通过一个隐状态和一个输入,我们就可以用更新后的隐状态计算输出。需要强调的是,rnn_layer的“输出”(Y)不涉及输出层的计算: 它是指每个时间步的隐状态,这些隐状态可以用作后续输出层的输入。

2024-08-17 12:56:30 759

原创 8-4 循环神经网络

循环神经网络(recurrent neural networks,RNNs) 是具有隐状态的神经网络。在介绍循环神经网络模型之前, 我们首先回顾 4-1节中介绍的多层感知机模型。

2024-08-15 00:20:01 727

原创 8-3 语言模型

在8-2节中, 我们了解了如何将文本数据映射为词元, 以及将这些词元可以视为一系列离散的观测,例如单词或字符。 假设长度为TTT的文本序列中的词元依次为x1,x2,...xTx_{1},x_{2},...x_{T}x1​,x2​,...xT​。 于是,xtx_{t}xt​(1≤t≤T1\leq t\leq T1≤t≤T) 可以被认为是文本序列在时间步ttt处的观测或标签。在给定这样的文本序列时,语言模型(language model)的目标是估计序列的联合概率P(x1,x2,...xT)P(x_{1},

2024-08-13 23:08:52 630

原创 8-2 文本预处理

对于序列数据处理问题,我们在 8-1节中 评估了所需的统计工具和预测时面临的挑战。这样的数据存在许多种形式,文本是最常见例子之一。例如,。本节中,我们将解析文本的常见预处理步骤。这些步骤通常包括:将文本作为字符串加载到内存中。将字符串拆分为词元(如和建立一个词表,将拆分的词元映射到数字索引。将文本转换为数字索引序列,方便模型操作。

2024-08-10 16:04:37 730

原创 8-1 序列模型

想象一下有人正在看Netflix上的电影。一名忠实的用户会对每一部电影都给出评价, 毕竟一部好电影需要更多的支持和认可。然而事实证明,事情并不那么简单。随着时间的推移,人们对电影的看法会发生很大的变化。:基于其他人的意见做出评价。例如,奥斯卡颁奖后,受到关注的电影的评分会上升,尽管它还是原来那部电影。这种影响将持续几个月,直到人们忘记了这部电影曾经获得的奖项。结果表明( (Wu et al., 2017)),这种效应会使评分提高半个百分点以上。:人们迅速接受并且适应一种更好或者更坏的情况作为新的常态。

2024-08-10 00:23:43 566

原创 7-3 单机多卡并行

当一个模型能用单卡计算时,通常使用数据并行拓展到多卡上模型并行则用在超大模型上。

2024-08-08 23:37:05 220

原创 7-2 深度学习硬件:TPU和其他

TPU的内存可以做的比GPU大得多,因此一般GPU很难训练很大的模型,而TPU可以。

2024-08-08 00:14:09 217

原创 7-1 深度学习硬件:CPU和GPU

为cache,数据只有进入寄存器的时候,才能开始运算。(此图错误,一个矩阵应该是按。

2024-08-07 14:46:53 660

原创 6-8 残差网络(ResNet)

随着我们设计越来越深的网络,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力,在这种网络中,添加层会使网络更具表现力, 为了取得质的突破,我们需要一些数学基础知识。残差网络源自于一个思想——。红色点为最优值,虽然f6​更复杂了,但有可能它学偏了!。

2024-08-06 22:24:13 1164

原创 6-7 批量规范化

训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。本节将介绍(Ioffe and Szegedy, 2015),这是一种流行且有效的技术,可。再结合在后面将介绍的残差块,批量规范化使得研究人员能够训练100层以上的网络。

2024-08-04 16:58:12 653

原创 6-6 池化层

通过逐渐聚合信息,生成越来越粗糙的映射,最终实现学习全局表示的目标,同时将卷积图层的所有优势保留在中间层。此外,当检测较底层的特征时,我们通常希望这些特征保持某种程度上的平移不变性。例如,如果我们拍摄黑白之间轮廓清晰的图像X,并将整个图像向右移动一个像素,即Z[i, j] = X[i, j + 1],则新图像Z的输出可能大不相同。而在现实中,随着拍摄角度的移动,任何物体几乎不可能发生在同一像素上。

2024-08-04 10:55:53 874

原创 6-5 多输入多输出通道

虽然我们在前面描述了构成每个图像的多个通道和多层卷积层。例如。但是到目前为止,我们仅展示了单个输入和单个输出通道的简化例子。这使得我们可以将输入、卷积核和输出看作二维张量。。例如,3×h×w。我们3。本节将更深入地研究具有多输入和多输出通道的卷积核。

2024-08-03 23:21:40 320

原创 6-4 填充和步幅

在前面的例子 图6.2.1中,输入的高度和宽度都为3,卷积核的高度和宽度都为2,生成的输出表征的维数为2×2。正如我们在 6-2节中所概括的那样,假设输入形状为nh​×nw​,卷积核形状为kh​×kw​,那么输出形状将是nh​−kh​1×nw​−kw​1。因此,。还有什么因素会影响输出的大小呢?本节我们将介绍和。

2024-08-02 23:33:35 673

原创 6-3 卷积层的代码实现

接下来,我们在corr2d函数中实现互相关运算过程,该函数接受输入张量X和卷积核张量K,并返回输出张量Y。通过 图6.2.1的输入张量X和卷积核张量K,我们来验证上述二维互相关运算的输出。这个函数KX。这在图像处理中用于特征提取、边缘检测等多种场景。

2024-08-01 16:55:04 600

原创 6-2 图像卷积

卷积解决的问题:权重随着我的输入的变大而变得特别大。

2024-08-01 15:08:43 267

原创 6-1 从全连接层到卷积

我们之前讨论的多层感知机十分适合处理表格数据,其中行对应样本,列对应特征。对于表格数据,我们寻找的模式可能涉及特征之间的交互,但是我们不能预先假设任何与特征交互相关的先验结构。此时,多层感知机可能是最好的选择,然而对于高维感知数据,这种缺少结构的网络可能会变得不实用。例如,在之前猫狗分类的例子中:假设我们有一个足够充分的照片数据集,数据集中是拥有标注的照片,每张照片具有百万级像素,这意味着网络的每次输入都有一百万个维度。即使将隐藏层维度降低到1000,这个全连接层也将有106×10310。

2024-08-01 00:29:52 1163

原创 5-2 使用和购买GPU

在表1.5.1中, 我们回顾了过去20年计算能力的快速增长。简而言之,自2000年以来,GPU性能每十年增长1000倍。本节,我们将讨论如何利用这种计算性能进行研究。首先是如何使用单个GPU,然后是如何使用多个GPU和多个服务器(具有多个GPU)。我们先看看如何使用单个NVIDIA GPU进行计算。首先,确保至少安装了一个NVIDIA GPU。然后,下载NVIDIA驱动和CUDA 并按照提示设置适当的路径。当这些准备工作完成,就可以使用nvidia-smi命令来查看显卡信息。在PyTorch中,。

2024-07-28 23:50:20 879

原创 5-1 PyTorch 神经网络基础

要想直观地了解块是如何工作的,最简单的方法就是自己实现一个。在实现我们自定义块之前,我们简要总结一下每个块必须提供的基本功能。将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。存储和访问前向传播计算所需的参数。根据需要初始化模型参数。在下面的代码片段中,我们从零开始编写一个块。

2024-07-27 23:28:34 887

原创 4-4 数值稳定性 + 模型初始化和激活函数

这里的t表示层,假设ht−1是第t−1层隐藏层的输出,经过一个ft​得到第t层隐藏层的输出ht。y表示x进来,第一层一直到第d层,最后到一个损失函数,就是我们预测的,要优化的目标函数。y这里不是预测,y还包括了损失函数。如果我们计算损失l关于我们某一个层权重Wt的梯度的话,损失l自顶向下求导,一直求到第t层的输出ht,再乘以第t层的输出ht关于第t层的权重Wt的导数。注意到说,这里的所有的h。

2024-07-26 23:00:36 601

原创 4-3 暂退法(Dropout)

同样,我们使用Fashion-MNIST数据集。我们定义具有两个隐藏层的多层感知机,每个隐藏层包含256个单元。我们可以将暂退法应用于每个隐藏层的输出(在激活函数之后), 并且可以为每一层分别设置暂退概率: 常见的技巧是在靠近输入层的地方设置较低的暂退概率。下面的模型将第一个和第二个隐藏层的暂退概率分别设置为0.2和0.5, 并且暂退法只在训练期间有效。# 这行代码定义了两个dropout率,分别为0.2和0.5。

2024-07-24 23:47:26 868

原创 4-2 权重衰减

前一节我们描述了过拟合的问题,本节我们将介绍一些正则化模型的技术。我们总是可以通过去收集更多的训练数据来缓解过拟合。但这可能成本很高,耗时颇多,或者完全超出我们的控制,因而在短期内不可能做到。我们继续思考多项式回归的例子,考虑高维输入可能发生的情况。多项式对多变量数据的自然扩展称为单项式(monomials), 也可以说是变量幂的乘积。单项式的阶数是幂的和。回想一下,在多项式回归的例子中, 我们可以通过调整拟合多项式的阶数来限制模型的容量。在同一训练代码实现中,不同的参数集可以有不同的更新行为。

2024-07-15 14:29:33 549

原创 4-1 模型选择、欠拟合和过拟合

模型容量需要匹配数据复杂度,不然很容易导致过拟合和欠拟合。

2024-07-14 16:49:19 719

原创 3-3 多层感知机的简洁实现

本节将介绍通过高级API更简洁地实现多层感知机。

2024-07-12 22:20:16 294

原创 3-2 多层感知机的从零开始实现

可以直接调用d2l包的train_ch3函数, 将迭代周期数设置为10,并将学习率设置为0.1.因为我们忽略了空间结构, 所以我们使用reshape将每个二维图像转换为一个长度为num_inputs的向量。由于我们已经从零实现过softmax函数, 因此在这里我们直接使用高级API中的内置函数来计算softmax和交叉熵损失。为了确保我们对模型的细节了如指掌, 我们将实现ReLU激活函数, 而不是直接调用内置的relu函数。因为我的模型更大了,所以我的数据拟合性更好,所以我的损失在下降。

2024-07-12 22:01:42 764

原创 3-1 多层感知机

多层感知机使用隐藏层和非线性激活函数来得到非线性模型多层感知机在输出层和输入层之间增加一个或多个全连接隐藏层,并通过激活函数转换隐藏层的输出。常见激活函数(一般用ReLU使用softmax来处理多类分类(和之前的softmax没什么区别,相当于就是在中间加入了隐藏层超参数为隐藏层层数和每个隐藏层的大小。

2024-07-12 20:35:13 1007

原创 2-5 softmax 回归的简洁实现

我们发现通过深度学习框架的高级API能够使实现线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。本节如在上节中一样, 继续使用Fashion-MNIST数据集,并保持批量大小为256。

2024-07-06 18:51:02 621

原创 2-4 Softmax 回归的从零开始实现

在实现softmax回归模型之前,我们简要回顾一下sum运算符如何沿着张量中的特定维度工作。如前所述, 给定一个矩阵XXX,我们可以对所有元素求和(默认情况下)。也可以只求同一个轴上的元素,即同一列(轴000)或同一行(轴111如果XXX是一个形状为23(2, 3)23的张量,我们对列进行求和, 则结果将是一个具有形状3(3,)3的向量。当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。这将产生一个具有形状13(1, 3)13的二维张量。

2024-07-06 14:14:15 1167

原创 2-3 图像分类数据集

MNIST数据集是图像分类任务中广泛使用的数据集之一,但作为基准数据集过于简单,我们将使用类似但更复杂的Fashion-MNIST数据集。

2024-07-05 22:10:28 785

原创 使用Zotero维护Word文档参考文献,参考文献格式的csl文件,符合国标

如果使用了支持中文作者超过 3 个为等,英文为 et al 的 csl,但显示不正常需要在 Zotero 中。姓名,题目 [C]或[J], 会议集名/期刊名 (缩写), 年份,页码。将中文文献 Info 中 language 字段修改为 zh-CN。

2024-03-18 14:04:15 782 1

原创 docker直接下载太慢,更换国内靠谱镜像源

说明,国内源更换成功。

2024-03-12 23:13:57 2323

NUAA CCST 《多元统计分析》 大作业课程设计参考 报告+源码+数据集

NUAA CCST 《多元统计分析》 大作业课程设计参考 报告+源码+数据集 内容详尽 源码丰富

2023-03-04

NUAA 《多元统计分析》 21年考试原题答案以及平时作业题手写答案

NUAA 《多元统计分析》 21年考试原题答案以及平时作业题手写答案

2023-01-09

NUAA南京航空航天大学 高等数学Ⅰ(2) 作业手写答案参考

NUAA南京航空航天大学 高等数学Ⅰ(2) 作业手写答案参考

2022-07-26

NUAACCST 《云计算实验》实验报告参考

NUAACCST 云计算实验报告参考 hadoop

2022-07-26

NUAA CCST 数据库原理课程实验 详细完备实验报告模板

NUAA CCST 数据库原理课程实验 详细完备实验报告模板 适用于计算机科学与技术专业 物联网工程专业 模板内容丰富、模块较多,可以直接对着改成自己的内容 结合软件工程文档撰写要求完成的数据库实验报告,既有软件工程文档要求的基本内容,也有针对数据库实验SQL内容的针对分析

2022-07-01

C# Winform应用 常用窗体图标合集

C# Winform应用 常用窗体图标合集 可以直接下下来用,量大且好看

2022-06-24

NUAA CCST 2022年春数据库原理实验 学生信息管理系统 可高度复现简易C#代码

NUAA CCST 2022年春数据库原理实验 学生信息管理系统 可高度复现简易C#代码 语言:C# 数据库:SQL Server

2022-06-24

NUAA CCST 嵌入式原理及应用实验 2022年春学期实验考核 题目要求+例程原版

NUAA CCST 嵌入式原理及应用实验 2022年春学期实验考核 题目要求+例程原版 可以下载了提前做一做往年的题目,感受一下

2022-06-18

NUAA CCST 嵌入式系统原理与应用 2022年春 实验报告合集

NUAA CCST 嵌入式系统原理与应用 2022年春 实验报告合集 笔者获得了95分的成绩

2022-06-18

NUAA 南航 CCST 2022春操作系统实践作业代码job合集

NUAA 南航 CCST 2022春操作系统实践作业代码job合集

2022-06-12

nuaa ccst os exam 操作系统实践 历年试题及答案汇总及复习指南

南京航空航天大学NUAA 计算机科学与技术学院/人工智能学院/软件学院CCST 操作系统实践 最全历年复习资料汇总

2022-06-05

NUAA南航 嵌入式系统原理及应用第三版 课后习题参考答案全集

NUAA南航 嵌入式系统原理及应用第三版 课后习题参考答案全集

2022-05-30

计算机网络实验-实现traceroute

操作系统:Linux(VirtualBox+Ubuntu) 语言:C/C++

2022-04-30

NUAA南航 形式语言与自动机编程作业 上下文无关文法消除二义性.zip

NUAA ccst形式语言与自动机理论 编程作业之一

2022-01-11

NUAA南航 形式语言与自动机编程作业 CYK算法.zip

NUAA ccst 形式语言与自动机 编程作业之一

2022-01-11

NUAA南航 形式语言与自动机编程作业 RIJK算法.zip

NUAA ccst 形式语言自动机课程编程作业之一——RIJK算法

2022-01-11

NUAA南航 计算机科学与技术专业/物联网工程专业 编译原理实验.zip

词法分析器+语法分析器+测试代码 亲测易理解的满分程序

2022-01-10

NUAA南航 计算机学院一三专生产实习Web全栈项目开发源码参考

基于Springboot、Mybatsis、Vue等技术的Web平台开发

2022-01-10

NUAA南航 计算机组成原理 五级流水线CPU代码.zip

南京航空航天大学计算机科学与技术学院/人工智能学院/软件学院计算机科学与技术专业计算机组成原理课程设计

2022-01-09

NUAA南航 计算机组成原理实验 MIPS单周期CPU实验代码.zip

南京航空航天大学计算机科学与技术学院/人工智能学院/软件学院计算机科学与技术专业计算机组成原理课程实验

2022-01-09

NUAA南航 编译原理课程设计-pl0编译器

南京航空航天大学计算机科学与技术学院/人工智能学院/软件学院计算机科学与技术专业编译原理课程课程设计-pl0编译器

2022-01-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除