自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 动手学深度学习pytorch版----6卷积神经网络

多层感知机适合处理表格数据,不适合处理高维感知数据。

2024-07-15 11:22:24 521

原创 动手学深度学习pytorch版----5深度学习计算

简要总结每个块必须提供的基本功能:1.将输入数据作为其前向传播函数的参数。2.通过前向传播函数来生成输出。3.计算其输出关于输入的梯度。4.存储和访问前向传播计算所需的参数。5.根据需要初始化模型参数。下面从零开始编写一个块。下面的MLP类继承了表示块的类。我们的实现只需要提供我们自己的构造函数(Python中的__init__函数)和前向传播函数。# 用模型参数声明层。这里,我们声明两个全连接的层# 调用MLP的父类Module的构造函数来执行必要的初始化。

2024-07-13 16:32:51 851

原创 动手学深度学习pytorch版----4多层感知机

我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制, 使其能处理更普遍的函数关系类型。最简单的方法是将许多全连接层堆叠在一起。每一层都输出到上面的层,直到生成最后的输出。我们可以把前𝐿−1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayer perceptron),通常缩写为MLP。下面,以图的方式描述多层感知机。输入层不涉及任何计算,所以使用此网络产生输出只需要实现隐藏层和输出层的计算,因此这个多层感知机的层数为2。这两个层都是全连接的。

2024-07-09 10:27:40 668

原创 动手学深度学习pytorch版----3线性神经网络

定义模型将输入和参数同模型的输出关联起来。"""线性回归模型"""使用平方损失函数。其中真实值为y,预测值为y_hat。要使它们的形状相同。"""均方损失"""小批量随机梯度下降,在每一步中,使用从数据集中随机抽取的一个小批量,然后根据参数计算损失的梯度。接下来,朝着减少损失的方向更新我们的参数。下面的函数实现小批量随机梯度下降更新。函数接受模型参数集合学习速率和批量大小作为输入。每 一步更新的大小由学习速率 lr 决定。因为我们计算的损失是一个批量样本的总和,所以我们用批量大小batch_size来。

2024-06-26 09:58:15 938

原创 动手学深度学习pytorch版----2预备知识

机器学习通常需要处理大型数据集,我们可以将某些视为一个表,表的行对应,列对应。n维数组,也称为张量tensor,深度学习框架比Numpy中的ndarray多一些重要的功能:首先GPU很好地支持加速计算,而Numpy仅支持cpu计算;其次张量支持。

2024-06-23 16:08:57 448

原创 深度学习入门第八章----深度学习

现在创建一个如下图所示的网络结构的CNN,这里使用的卷积层全都是3×3的小型滤波器,特点是随着层的加深,通道数变大(卷积层的通道数从前面的层开始按顺序以16、16、32、32、64的方式增加)。插入了池化层以逐渐减小中间数据的大小。使用He初始值作为权重的初始值,使用Adam更新权重参数。上述网络的特点是:基于3×3的小型滤波器的卷积层。激活函数是ReLU。全连接层的后面使用Dropout层。基于Adam的最优化。使用He初始值作为权重初始值。

2024-06-18 08:54:17 294

原创 深度学习入门第七章----卷积神经网络

CNN和之前的神经网络一样,可以通过组装层来构建,不过CNN中出现了卷积层(convolution层)和池化层(pooling层)。之前介绍的神经网络中,之间都有连接,这称为。使用Affine层实现了全连接层,一个5层的全连接神经网络可以通过下图实现。如上图所示,全连接的神经网络中,Affine层后面跟着激活函数ReLU层(或sigmoid层) ,堆叠了4层,最后由Softmax层输出最终结果。CNN的一个例子如下如上图所示,CNN新增了conv层和pooling层。

2024-06-18 08:43:40 886

原创 深度学习入门第六章----与学习相关的技巧

这个问题称为。

2024-06-16 16:57:26 770

原创 深度学习入门第五章----误差反向传播法

链式法则需要从复合函数说起。链式法则是关于复合函数的导数的性质,

2024-06-14 15:43:39 731

原创 深度学习入门第四章-----神经网络的学习

以实现数字5的识别为例,首先从图像中提取,再用技术来学习这些特征量的模式。特征量是指可以从输入数据(输入图像)中准确地提取本质数据(重要的数据)的。图像的特征量通常表示为的形式。在计算机视觉领域,常用的特征量包括SIFT、SURF和HOG等。使用这些特征量将。然后对转换后的向量使用机器学习中的SVM、KNN等进行。需要注意的是,将图像转换成向量使用的特征量仍是由人设计的,对于不同的问题需要使用合适的特征量。但是神经网络直接,图像中包含的重要特征量也都是由机器来学习的。

2024-06-13 19:43:40 691

原创 深入学习入门第三章----神经网络

如果 这个总和超过0,则输出1,否则输出0。也就是说,当输入信号为重要信息时,二者都会输出较大的值,当输入信号为不重要的信息时,二者都输出较小的值。比如,对于某个输入图像,预测图中的数字是0到9中的哪一个的问题(10类别分类问题),可以如下图一样,将输出层神经元数量设定为10个。其中的range()函数若指定为range(start, end)则会生成一个由start到end-1之间的整数构成的列表,若像range(start, end, step)则生成的列表中的下一个元素会增加step指定的值。

2024-06-09 11:00:55 976 1

原创 深度学习入门第二章----感知机

感知机接收多个输入信号,输出一个信号。下图展示一个接收两个输入信号的感知机例子。x1,x2是,y是,w1,w2是。⚪称为,即输入信号被送往神经元时,会固定的。神经元会计算传送来的信号的,总和超过某个界限值时,输出1,也叫做。此处界限值即θ。上述即感知机的运行原理,使用公式来表示如下:感知机都有各自固有的。,对应该权重的就越高。(权重相当于电流中所说,电阻越,通过电流越。而感知机就越大。

2024-06-07 11:09:11 560

原创 深度学习入门第一章----python入门

使用np.array()生成NumPy数组。np.array()方法接收Python列表作为参数,生成NumPy数组(numpy.ndarray)。pyplot提供显示图像的方法imshow(),可以使用matplotlib.image模块的imread()方法读入图像。NumPy数组(np.array)可以生成N维数组,数学上将一维数组称为。在上述图形追加cos函数图形,并使用pyplot其他功能。使用Matplotlib的pyplot模块绘制简单图形。,可以把一般化后的向量或矩阵统称为。

2024-06-07 09:13:47 370

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除