![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
动手学深度学习Pytorch版
Kevin_D98
这个作者很懒,什么都没留下…
展开
-
AlexNet(fashion-mnist)
AlexNet相较于LeNet-5具有更深的网络结构,采用relu激活函数。原创 2024-01-10 20:54:23 · 431 阅读 · 0 评论 -
LeNet-5(fashion-mnist)
LeNet是最早发布的卷积神经网络之一。该模型被提出用于识别图像中的手写数字。原创 2024-01-10 19:27:40 · 600 阅读 · 0 评论 -
1×1卷积层
1×1卷积层相当于在每个像素位置做全连接层操作,但每个通道内部卷积核参数仍是共享的。原创 2024-01-10 15:03:02 · 445 阅读 · 0 评论 -
多输入多输出通道卷积
彩色图像具有RGB三通道,因此卷积操作也需要拓展到多通道。原创 2024-01-10 14:49:29 · 456 阅读 · 0 评论 -
卷积操作的填充和步幅
影响卷积层输出大小的因素除了卷积核尺寸,还有卷积操作的填充与步幅。原创 2024-01-10 11:22:59 · 372 阅读 · 0 评论 -
加载和保存模型参数
深度学习框架提供了内置函数来保存和加载整个网络。需要注意的是,这将保存模型的参数而不是整个模型。原创 2024-01-09 21:32:03 · 441 阅读 · 0 评论 -
参数初始化
深度学习框架提供默认的随机初始化,也允许我们创建自定义的初始化方法,以满足我们通过其他规则实现初始化权重。原创 2024-01-09 14:30:48 · 346 阅读 · 0 评论 -
模型参数访问
在选择了架构并设置了超参数后,进入训练阶段。此时,我们的目标就是找到使损失函数最小化的模型参数。有时,我们希望提取参数,以便在其他环境中复用。原创 2024-01-09 13:13:52 · 880 阅读 · 0 评论 -
K折交叉验证
一组超参数的训练误差可能非常低,但K折交叉验证的误差高的多,这表明模型过拟合。较小的过拟合表示现有数据可以支撑更复杂的模型,较大的过拟合则表明我们可以采用正则化技术来改善模型。原创 2024-01-09 10:39:43 · 345 阅读 · 0 评论 -
添加暂退法的MLP
一个好的预测模型能够在未知的数据上有好的表现,为了缩小训练数据和测试数据之间模型性能的差异,应该使模型尽可能的简单,简单性的另一种角度是平滑性,即函数不应该对输入的微小变化敏感。可以通过对输入加入噪声,增强输入-输出映射的平滑性。在前向传递过程中,是在训练过程中丢弃一些神经元。标准的暂退法包括在计算下一层前将当前层的一些节点置零。暂退法函数将从均匀分布U[0,1]中抽取样本,样本数与这层的神经网络维度一致,保留对应样本大于p的节点,以实现按照概率p丢弃神经元。return X。原创 2023-12-30 16:05:06 · 315 阅读 · 0 评论 -
MLP简洁实现
通过高级API更简洁地实现多层感知机。原创 2023-12-28 16:21:57 · 359 阅读 · 0 评论 -
MLP从零开始实现
实现一个多层感知机,并采用Fashion-mnist图像分类数据集做测试。原创 2023-12-28 10:21:55 · 385 阅读 · 0 评论 -
softmax分类网络简洁实现(fashion-mnist)
基于pytorch框架的softmax分类网络简洁实现。原创 2023-12-19 14:53:41 · 354 阅读 · 0 评论 -
softmax分类网络手动实现(Fashion-MNIST)
使用Fashion-MNIST数据集,实现softmax分类网络原创 2023-12-19 12:05:21 · 369 阅读 · 0 评论 -
读取MNIST图像分类数据集
Fashion-MNIST由10个类别的图像组成,每个类别由训练集中的6000张图像和测试数据集中1000张图像组成。原创 2023-12-17 22:49:43 · 30 阅读 · 0 评论 -
tensor转换为其他python对象
深度学习框架定义的张量转换为NumPy张量(ndarray)很容易,反之也很容易。原创 2023-12-15 10:53:02 · 42 阅读 · 0 评论 -
线性回归网络的简洁实现
使用pytorch框架简洁实现线性回归网络原创 2023-12-15 10:11:11 · 32 阅读 · 0 评论 -
pytorch——线性回归网络的手动实现
从零实现线性回归网络原创 2023-12-14 10:56:32 · 27 阅读 · 0 评论 -
线性回归的基本元素
线性回归的5大基本元素原创 2023-12-13 16:30:00 · 34 阅读 · 0 评论 -
pytorch——自动微分
求导是几乎所有深度学习优化算法的关键步骤。深度学习框架通过自动计算导数,即自动微分来加快求导。原创 2023-12-12 21:48:21 · 34 阅读 · 0 评论 -
张量的数学计算
张量的数学计算原创 2023-12-04 23:12:49 · 35 阅读 · 0 评论 -
pandas数据预处理
pandas数据预处理原创 2023-12-04 20:48:23 · 29 阅读 · 0 评论 -
pytorch——广播机制
a和b分别是3×1矩阵和1×2矩阵,通过广播为3×2矩阵,完成相加运算。广播过程为将矩阵a复制列,矩阵b复制行,然后按元素相加。两个形状相同的张量可以执行按元素操作,在某些情况下,即使形状不同,我们仍然可以通过调用广播机制来执行按元素操作。(1)通过适当幅值元素来扩展一个或两个数组,以获得相同形状的张量。(2)对生成的数组执行按元素操作。原创 2023-12-03 21:43:29 · 53 阅读 · 1 评论 -
pytorch——张量索引和切片
张量中的元素可以通过索引访问:第一个元素的索引是0,最后一个元素的索引是-1,可以指定范围以包含第一个元素和最后一个元素之间的元素。原创 2023-12-03 21:21:57 · 46 阅读 · 1 评论 -
pytorch——张量连接
我们可以把多个张量连接在一起,把它们端对端地叠起来形成一个更大的张量。我们只需要提供张量列表,并给出沿哪个轴连接。原创 2023-12-02 21:35:42 · 88 阅读 · 1 评论 -
pytorch——构建张量
n维数组也称张量tensor。深度学习框架的张量类与Numpy计算包的ndarray相类似,但张量可以使用GPU加速计算且支持自动微分,这些功能使得张量类更适合深度学习。原创 2023-12-02 20:13:38 · 53 阅读 · 1 评论