自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 图像分类数据集

Fashion-MNIST中包含的10个类别,分别为t-shirt(T恤)、trouser(裤子)、pullover(套衫)、dress(连衣裙)、coat(外套)、sandal(凉鞋)、shirt(衬衫)、sneaker(运动鞋)、bag(包)和ankle boot(短靴)。(test dataset)中的1000张图像组成。为了简洁起见,本书将高度h像素、宽度w像素图像的形状记为h×w或(h,w)。函数,用于获取和读取Fashion-MNIST数据集。以下是训练数据集中前几个样本的图像及其相应的标签。

2023-11-13 20:32:36 35

原创 softmax回归

大致指某些类别的表示方法由0和1组成——独热编码,,此为一个向量,分量和类别一样多,具体表现为一个1,其他全为0。如:(0,0,1) (0,1,0) (1,0,0)为了故计所有可能类别的条件概率,设立(类别*特征)个标量表示权重,以及(类别)个标量表示偏置。使预测规范化,输出都是非负且总和为1(以及 校准)。3.全连接层的参数开销。4.softmax运算。

2023-11-06 21:15:19 37

原创 线性回归的简洁实现

【代码】线性回归的简洁实现。

2023-10-20 18:32:09 33 1

原创 线性回归的从零开始实现

在初始化参数之后,我们的任务是更新这些参数,直到这些参数足够拟合我们的数据。在每一步中,使用从数据集中随机抽取的一个小批量,然后根据参数计算损失的梯度。接下来,我们必须定义模型,将模型的输入和参数同模型的输出关联起来。回想一下,要计算线性模型的输出, 我们只需计算输入特征X和模型权重w的矩阵-向量乘法后加上偏置b。在我们开始用小批量随机梯度下降优化我们的模型参数之前, 我们需要先有一些参数。在下面的代码中,我们通过从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重, 并将偏置初始化为0。

2023-10-17 19:38:04 48 1

原创 微积分

【代码】微积分。

2023-10-11 20:44:28 63 1

原创 线性代数

A.clone() A为原始对象名,clone()创建副本,中间用 “ . ” 连接。A.mean() == A.num()/A.numel() 求平均值的函数 或 元素求和除以总数。用于创建并返回一个对象的副本,这个副本具有和原始对象相同的数据,但是是一个新的对象,对其进行修改不会影响原始对象。A.T A为张量名,T为转置函数,运行结果为交换矩阵的行和列,即转置。的列维数(沿轴1的长度)必须与。

2023-10-10 21:39:08 56 1

原创 数据预处理

可以自动将此列转换为两列“Alley_Pave”和“Alley_nan”。巷子类型为“Pave”的行会将“Alley_Pave”的值设置为1,“Alley_nan”的值设置为0。缺少巷子类型的行会将“Alley_Pave”和“Alley_nan”分别设置为0和1。中的类别值或离散值,我们将“NaN”视为一个类别。由于“巷子类型”(“Alley”)列只接受两种类型的类别值“Pave”和“NaN”,其中每行描述了房间数量(“NumRooms”)、巷子类型(“Alley”)和房屋价格(“Price”)。

2023-10-09 20:29:03 29 1

原创 学习内容23/10/7

==” 的作用是将两个形状相同的张量同一位置的 元素 进行对比,同为True,不同为False,以此作为新张量中的元素。虽然我们讨论的是矩阵的索引,但这也适用于向量和超过2个维度的张量。X,Y是形状相同的两个张量,通过“==”进行连接,所得“X==Y”为一个新的相同形状的张量。如果我们想为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值。在浅层运用层面,将沿着数组中长度为1的轴进行广播,a是列,b是行。指向的张量,而是指向新分配的内存处的张量。,为结果分配新的内存,然后使。

2023-10-07 21:59:06 31 1

原创 每日学习内容23/9/27

torch.stack((多个张量名),dim=x) 意义是连结张量,进行堆叠,增加新的维度。stack可以连结多个且形状相同的张量。dim后“x”的意思是第x+1维度内进行连结。运算结果是 e^n ,即 e 的 n 次方 ,e是自然常数,n是单一元素值。注意:exp可以是多维张量,但任意维度内张量形状必须相同,否则报错。torch.exp(张量名)

2023-09-27 21:59:33 39 1

原创 数据操作

构建一个张量,形状由括号内数字大小和数量决定,其中每个元素都从均值为0、标准差为1的标准高斯分布(正态分布)中随机采样。用户自己创建一个张量,且张量内的值都是确定值。4.任意具有相同形状的张量之间的运算。3.print中换行。

2023-09-26 22:02:56 35

原创 每日学习内容23/9/25

ones创建的张量所有元素为1,zeros创建的张量所有元素为0。n的意义为该维度下元素的个数。括号内从右至左是1维,2维,至更高维度。使用方法:张量名.reshape(n1,n2,...,n3,n4)作用:改变张量形状,张量大小不变。即抽出所有元素进行重新排版输出。张量名.numel() 输出张量内元素个数。4.torch ones和zeros。

2023-09-25 22:05:20 45 1

原创 每日学习内容23/9/24

reshape(行数,列数) torch.matmul(矩阵变量名,矩阵变量名) torch.normal(平均值,标准差,输出张量) shape:行列数组成元组直接输出。shape[0] :读取行数。shape[1]:读取列数。Tensor——张量。

2023-09-24 21:54:06 51 1

原创 每日学习内容23/9/20-21

每日学习

2023-09-21 21:57:48 52 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除