![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
动手学习深度学习
文章平均质量分 63
now_try_
生命不息,奋斗不止
展开
-
【动手学习深度学习--逐行代码解析合集】20批量归一化BatchNorm
直接使用深度学习框架中定义的BatchNorm。通常高级API变体运行速度快得多,因为它的代码已编译为C++或CUDA,而我们的自定义代码由Python实现。进行对比,可以发现收敛速度变快。原创 2023-07-15 18:30:58 · 172 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】19含并行连结的网络(GoogleNet)
GoogLeNet模型的计算复杂,而且不如VGG那样便于修改通道数。为了使Fashion-MNIST上的训练短小精悍,我们将输入的高和宽从224降到96,这简化了计算。下面演示各个模块输出的形状变化。原创 2023-07-15 10:25:34 · 187 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】18网络中的网络(NiN)
【代码】【动手学习深度学习--逐行代码解析合集】18网络中的网络(NiN)原创 2023-07-14 16:05:06 · 263 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】17使用块的网络(VGG)
原始VGG网络有5个卷积块,其中前两个块各有一个卷积层,后三个块各包含两个卷积层。第一个模块有64个输出通道,每个后续模块将输出通道数量翻倍,直到该数字达到512。由于该网络使用8个卷积层和3个全连接层,因此它通常被称为VGG-11。虽然使用了很小的VGG网络(VGG-11且通道数除以4)计算量减少了16倍,但是运行速度还是比AlexNet慢了很多,所以运行VGG网络是一件很贵的事情。与AlexNet、LeNet一样,VGG网络可以分为两部分:第一部分主要由卷积层和汇聚层组成,第二部分由全连接层组成。原创 2023-07-14 10:39:58 · 105 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】16深度卷积神经网络(AlexNet)
与LeNet相比,这里的主要变化是使用更小的学习速率训练,这是因为网络更深更广、图像分辨率更高,训练卷积神经网络就更昂贵。AlexNet和LeNet的设计理念非常相似,但也存在显著差异。原创 2023-07-13 16:02:35 · 99 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】15卷积神经网络(LeNet)
【代码】【动手学习深度学习--逐行代码解析合集】15卷积神经网络(LeNet)原创 2023-07-13 10:51:25 · 103 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】14多输入多输出通道
torch.stack:增加新的维度进行堆叠。原创 2023-07-12 11:15:35 · 93 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】13图像卷积
【代码】【动手学习深度学习--逐行代码解析合集】13图像卷积。原创 2023-07-11 15:55:52 · 93 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】11实战Kaggle比赛:预测房价
下面的download函数用来下载数据集, 将数据集缓存在本地目录(默认情况下为…如果缓存目录中已经存在此数据集文件,并且其sha-1与存储在DATA_HUB中的相匹配, 我们将使用缓存的文件,以避免重复的下载。首先,我们建立字典DATA_HUB, 它可以将数据集名称的字符串映射到数据集相关的二元组上, 这个二元组包含数据集的url和验证文件完整性的sha-1密钥。我们还需实现两个实用函数: 一个将下载并解压缩一个zip或tar文件, 另一个是将本书中使用的所有数据集从DATA_HUB下载到缓存目录中。原创 2023-07-09 17:35:38 · 574 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】10Dropout暂退法
我们可以将暂退法应用于每个隐藏层的输出(在激活函数之后), 并且可以为每一层分别设置暂退概率: 常见的技巧是在靠近输入层的地方设置较低的暂退概率。下面的模型将第一个和第二个隐藏层的暂退概率分别设置为0.2和0.5, 并且暂退法只在训练期间有效。若不使用dropout对比结果(此处将dropout1, dropout2 = 0.0, 0.0)原创 2023-07-08 10:50:26 · 232 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】09权重衰减
pytorch代码中将weight_decay表示正则,把wd传入该值。【输出】w的L2范数是: 13.232867240905762。【输出】 w的L2范数是: 0.360396146774292。简洁表达的过程大体上没什么不一样,只不过把lambd改成了wd。【输出】w的L2范数: 0.35754090547561646。【输出】w的L2范数: 13.809814453125。原创 2023-07-07 11:37:53 · 204 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】08模型选择、欠拟合和过拟合
【代码】【动手学习深度学习--逐行代码解析合集】08模型选择、欠拟合和过拟合。原创 2023-07-06 16:52:58 · 624 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】07多层感知机的简洁实现
【代码】【动手学习深度学习--逐行代码解析合集】07多层感知机的简洁实现。原创 2023-07-04 11:29:42 · 89 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】06多层感知机的从零开始实现
sigmoid激活函数及其导数。ReLU激活函数及其导数。tanh激活函数及其导数。原创 2023-07-04 11:13:05 · 85 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】05softmax回归简洁实现
【代码】【动手学习深度学习--逐行代码解析合集】05softmax回归简洁实现。原创 2023-07-03 14:58:22 · 94 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】04softmax回归的从零开始实现
以下代码是在PyCharm中运行的。原创 2023-07-02 18:52:52 · 192 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】03图像分类数据集
以下代码是在PyCharm中运行的。原创 2023-07-02 10:00:02 · 181 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】02线性回归的简洁实现
以下代码是在PyCharm中运行的。原创 2023-07-01 16:35:34 · 107 阅读 · 0 评论 -
【动手学习深度学习--逐行代码解析合集】01线性回归的从零开始实现
以下代码是在PyCharm中运行的。原创 2023-07-01 11:40:06 · 211 阅读 · 0 评论