![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
crud_player
这个作者很懒,什么都没留下…
展开
-
五、pytorch的中阶API:2.模型层、3损失函数
2.模型层:pytorch的nn.module下有内置模型层,也可以自定义模型层。实际上,pytorch不区分模型和模型层,都是通过继承nn.Module进行构建。3.损失函数注意Pytorch中内置的损失函数的参数和tensorflow不同,是y_pred在前,y_true在后,而Tensorflow是y_true在前,y_pred在后。回归nn.MSELoss二分类nn.BCELoss多分类nn.CrossEntropyLoss自定义Pytorch中的原创 2021-03-22 16:22:51 · 100 阅读 · 0 评论 -
五、pytorch的中阶API:1.Dataset 和 DataLoader
Dataset:定义数据集,类似列表的数据结构,__len__方法和__getitem__方法,具有确定的长度,能够用索引获取数据集中的元素。DataLoader:按batch加载数据集,实现了__iter__方法的可迭代对象一,Dataset和DataLoader概述获取一个batch数据的步骤:确定数据集的长度采样出batch大小的索引按索引找到对应的样本把样本的数据和标签整理为两个张量输出步骤1和3分别由Dataset的__len__和__getitem__实现,步骤2是由DataL原创 2021-03-21 17:13:47 · 201 阅读 · 1 评论 -
四、pytorch的低阶API:3.nn.functional 和 nn.Module
1.nn.functional 和nn.Modulepytorch和神经网络相关的功能组件(激活函数、模型层、损失函数),大多封装在torch.nn下。这些功能组件既有函数形式(torch.nn.functional)的实现,又有类形式(torch.nn.Module)的实现import torch.nn.functional as Ffrom torch import nnF.relu、F.sigmoid、F.tanh、F.softmaxnn.ReLU、nn.Sigmoid、n原创 2021-03-20 18:01:40 · 124 阅读 · 0 评论 -
四、pytorch的低阶API:2.张量的数学运算
本文是对eat pytorch in 20 day做的笔记标量运算标量运算的特点是对张量逐元素运算+、-、*、/、**、%、//、>=、&、|、……torch.sqrt()#开方torch.round(x) #保留整数部分,四舍五入torch.floor(x) #保留整数部分,向下归整torch.ceil(x) #保留整数部分,向上归整torch.trunc(x) #保留整数部分,向0归整torch.clamp(x,min,max)#幅值裁剪向量运算向量运算符在原创 2021-03-20 16:38:03 · 307 阅读 · 0 评论 -
四、pytorch的低阶API:1.张量的结构操作
创建张量torch.tensor(list,dtype)torch.arange(start,end,step)torch.linespace(start,end,len)torch.zeros(tuple)torch.zeros_like(tensor)torch.ones(tuple)torch.ones_like(tensor)torch.fill(tensor,value)#把tensor填充为全部是valuetorch.rand()torch.randn()torch.n.原创 2021-03-19 15:24:42 · 91 阅读 · 0 评论 -
详解pytorch中的torch.rand、torch.randn、torch.normal、torch.linespace
区分上述四个函数:1. torch.rand#均匀分布采样torch.rand(*sizes, out=None) → Tensor#*sizes指定张量的形状、out指定数据存储的位置import torcha=torch.rand([3,4])print(a)'''tensor([[0.7305, 0.5913, 0.0737, 0.5401], [0.9628, 0.0018, 0.7095, 0.7052], [0.2917, 0.1240, 0.原创 2021-03-18 15:24:53 · 6018 阅读 · 1 评论 -
二、pytorch核心概念:3.动态计算图
本博客是阅读eat pytorch in 20 day第二章的个人笔记动态计算图计算图由节点和边组成,节点是张量和函数,边表示依赖关系。动态的含义是,前向传播时每一步会立即得到计算结果,反向传播后计算图会立即销毁。function同时包含正向计算和反向传播的逻辑,比如relu函数:class MyReLU(torch.autograd.Function): #正向传播逻辑,可以用ctx存储一些值,供反向传播使用。 @staticmethod def forward(c原创 2021-03-18 10:40:29 · 240 阅读 · 2 评论 -
二、pytorch核心概念:2.自动微分机制
本博客是阅读eat pytorch in 20 day第二章的个人笔记自动微分机制1. 利用backward方法求导数backward方法求梯度,梯度结果存在变量的grad属性下。因变量需要是标量,如果计算结果不是标量,需要点乘一个同样大小的全1矩阵变成标量,需要把这个矩阵传入到backward里面。y.backward()# y是标量y.backward(gradient = gradient)# y是非标量#也可以先计算成标量,再backwardz = torch.sum(y*gradi原创 2021-03-18 10:12:25 · 130 阅读 · 0 评论 -
二、pytorch核心概念:1.张量数据结构
本博客是阅读eat pytorch in 20 day第二章的个人笔记1、张量数据结构1. 张量的数据类型首先,是数据类型的分类:float: torch.float64 torch.float32 torch.float16int:torch.int64 torch.int32 torch.int16 torch.int8其它:torch.unit8 torch.bool其次,数据类型的转换:torch.tensor(数据)如果未规定类型,则自动推断数据类型。整数默认为torch.int原创 2021-03-17 18:27:11 · 148 阅读 · 1 评论