【动手学深度学习】
01加加龙
这个作者很懒,什么都没留下…
展开
-
【动手学深度学习】循环神经网络
为了对文本进行预处理,我们通常将文本拆分为词元,构建词表将词元字符串映射为数字索引,并将文本数据转换为词元索引以供模型操作。我们将解析文本的常见预处理步骤。建立一个词表,将拆分的词元映射到数字索引。将文本转换为数字索引序列,方便模型操作。文本是序列数据的一种最常见的形式之一。将字符串拆分为词元(如单词和字符)。将文本作为字符串加载到内存中。原创 2023-06-06 12:58:57 · 69 阅读 · 0 评论 -
【动手学深度学习】卷积神经网络
(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。比如,一个240×240像素的图像,经过10层5×5的卷积后,将减少到200×200像素。AlexNet的架构与LeNet相似,但使用了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。与卷积层输出的平方误差,然后计算梯度来更新卷积核。为了构造高性能的卷积神经网络,我们通常对卷积层进行排列,逐渐降低其表示的空间分辨率,同时增加通道数。原创 2023-06-06 12:57:09 · 132 阅读 · 0 评论 -
【动手学深度学习】深度学习计算
请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。一个典型的错误如下:计算GPU上每个小批量的损失,并在命令行中将其报告给用户(或将其记录在NumPy。最好是为GPU内部的日志分配内存,并且只移动较大的日志。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。深度学习框架要求计算的所有输入数据都在同一设备上,无论是CPU还是GPU。一种前向传播函数,用于将输入按追加块的顺序传递给块组成的“链条”。原创 2023-06-06 12:58:27 · 60 阅读 · 0 评论 -
【动手学深度学习】多层感知机
我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制, 使其能处理更普遍的函数关系类型。要做到这一点,最简单的方法是将许多全连接层堆叠在一起。每一层都输出到上面的层,直到生成最后的输出。我们可以把前L−1层看作表示,把最后一层看作线性预测器。通过计算加权和并加上偏置来确定神经元是否应该被激活, 它们将输入信号转换为输出的可微运算。大多数激活函数都是非线性的。当训练数据稀缺时,我们甚至可能无法提供足够的数据来构成一个合适的验证集。最后,通过对K次实验的结果取平均来估计训练和验证误差。原创 2023-06-06 12:58:11 · 68 阅读 · 0 评论 -
动手学深度学习-线性神经网络
批量大小和学习率的值通常是手动预先指定,而不是通过模型训练得到的。通常我们会选择非负数作为损失,且数值越小表示损失越小,完美预测时的损失为0。梯度下降最简单的用法是计算损失函数(数据集中所有样本的损失均值) 关于模型参数的导数(在这里也可以称为梯度)。为了度量模型在整个数据集上的质量,我们需计算在训练集n个样本上的损失均值(也等价于求和)。对于线性回归,每个输入都与每个输出(在本例中只有一个输出)相连, 我们将这种变换称为。改变均值,图像会左右平移,改变方差,图像的峰值会伸缩。原创 2023-06-06 12:57:53 · 51 阅读 · 0 评论 -
动手学深度学习-预备知识
data :输入的数据(dataframe,series,array-like)(1)pd.get_dummies 基于one-hot编码的特征提取。将离散型特征每一种取值看作一种状态,将不同值的变量转换为0/1。columns :指定所需要实现类别转换的列名。(3)A.numel()求矩阵元素的个数。(1)Hadamard积。原创 2023-06-06 12:57:32 · 64 阅读 · 0 评论