自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 如何在colab上运行github项目

由于最近在尝试跑深度学习的一些代码,在本地环境跑不了,故决定将环境部署到云端,colab上刚好有免费的gpu可以白嫖,所以就有了这篇博客记录。。。

2024-04-27 20:47:51 1177

原创 10—《动手学深度学习——Pytorch版》—Dropout暂退法

暂退法在前向传播过程中,计算每一内部层的同时注入噪声,这已经成为训练神经网络的常用技术。这种方法之所以被称为暂退法,因为我们从表面上看是在训练过程中丢弃(drop out)一些神经元。在整个训练过程的每一次迭代中,标准暂退法包括在计算下一层之前将当前层中的一些节点置零。同样,我们使用Fashion-MNIST数据集。我们定义具有两个隐藏层的多层感知机,每个隐藏层包含256个单元。

2024-04-22 14:24:52 982

原创 09—《动手学深度学习——Pytorch版》—权重衰退

在训练参数化机器学习模型时, 权重衰减(weight decay)是最广泛使用的正则化的技术之一, 它通常也被称为L2L2L2正则化。L2L2L2下面的代码将模型拟合训练数据集,并在测试数据集上进行评估。线性网络和平方损失没有变化, 所以我们通过d2l.linreg和d2l.squared_loss导入它们。唯一的变化是损失现在包括了惩罚项。def train(lambd): # 训练模型,lambd为权重衰减系数w, b = init_params() # 初始化模型参数我w,b。

2024-04-19 18:14:20 1135 1

原创 08—《动手学深度学习——Pytorch版》—模型选择 + 过拟合和欠拟合

作为机器学习科学家,我们的目标是发现模式(pattern)。但是,我们如何才能确定模型是真正发现了一种泛化的模式, 而不是简单地记住了数据呢?例如,我们想要在患者的基因数据与痴呆状态之间寻找模式, 其中标签是从集合痴呆轻度认知障碍健康中提取的。因为基因可以唯一确定每个个体(不考虑双胞胎), 所以在这个任务中是有可能记住整个数据集的。我们不想让模型只会做这样的事情:“那是鲍勃!我记得他!他有痴呆症!原因很简单:当我们将来部署该模型时,模型需要判断从未见过的患者。

2024-04-16 16:41:29 874

原创 07—《动手学深度学习——Pytorch版》—多层感知机

我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制, 使其能处理更普遍的函数关系类型。要做到这一点,最简单的方法是将许多全连接层堆叠在一起。每一层都输出到上面的层,直到生成最后的输出。我们可以把前L−1L-1L−1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayer perceptron),通常缩写为MLP。

2024-04-09 15:25:36 1000 1

原创 06—《动手学深度学习——Pytorch版》—Softmax回归

回归可以用于预测多少的问题。比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。某个电子邮件是否属于垃圾邮件文件夹?某个用户可能注册或不注册订阅服务?某个图像描绘的是驴、狗、猫、还是鸡?某人接下来最有可能看哪部电影?通常,机器学习实践者用分类这个词来描述两个有微妙差别的问题: 1. 我们只对样本的“硬性”类别感兴趣,即属于哪个类别;2. 我们希望得到“软性”类别,即得到属于每个类别的概率。这两者的界限往往很模糊。

2024-04-07 19:47:50 1111 2

原创 05—《动手学深度学习——Pytorch版》—线性回归

回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。在机器学习领域中的大多数任务通常都与预测(prediction)有关。当我们想预测一个数值时,就会涉及到回归问题。常见的例子包括:预测价格(房屋、股票等)、预测住院时间(针对住院病人等)、 预测需求(零售销量等)。但不是所有的预测都是回归问题。接下来,我们必须定义模型,将模型的输入和参数同模型的输出关联起来。

2024-03-31 22:50:34 1095 1

原创 04—《动手学深度学习——Pytorch版》—自动求导

深度学习框架通过自动计算导数,即自动微分(automatic differentiation)来加快求导。实际中,根据设计好的模型,系统会构建一个计算图(computational graph), 来跟踪计算是哪些数据通过哪些操作组合起来产生输出。自动微分使系统能够随后反向传播梯度。这里,反向传播(backpropagate)意味着跟踪整个计算图,填充关于每个参数的偏导数。

2024-03-18 20:22:53 941

原创 03—《动手学深度学习——Pytorch版》—矩阵计算

为了帮助读者在后面的章节中更好地理解优化问题和方法, 本节提供了一个非常简短的入门教程,帮助读者快速掌握深度学习中常用的微分知识。

2024-03-17 17:32:03 562

原创 02—《动手学深度学习——Pytorch版》—线性代数

本节将介绍线性代数中的基本数学对象、算术和运算,并用数学符号和相应的代码实现来表示它们。

2024-03-16 13:57:13 1164 2

原创 01—《动手学深度学习——Pytorch版》—数据操作+数据预处理

本章主要介绍深度学习中如何对数据进行预处理操作,数据处理是学习深度学习的第一步。

2024-03-14 23:31:15 1111

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除