pytorch
文章平均质量分 67
weixin_54096215
这个作者很懒,什么都没留下…
展开
-
因子分解机(FM)简介及实践
因子分解机(Factorization Machines, FM)是一个在2010年被提出的算法,是预估CTR的经典模型之一。在这篇文章里,前半部分会介绍FM的原理,后半部分会通过tensorflow来实现FM算法。由于个人水平十分有限,文章中对算法理解不当的地方,烦请大家指出,不胜感激!1 FM简介1.1 提出的动机我们知道逻辑回归方法是对所有特征的一个线性加权组合,其预测值可以写为如下形式:但这样的形式只是单独考虑了每个特征对目标值的影响,而没有考虑特征之间的关系,比如二阶组..转载 2021-11-04 18:45:37 · 421 阅读 · 0 评论 -
反向传播理解
参考链接:反向传播算法(过程及公式推导) - ZYVV - 博客园RuntimeError: Trying to backward through the graph a second time..._Huiyu Blog-CSDN博客https://blog.csdn.net/weixin_44058333/article/details/99701876参考链接的博主讲的特别细,保存一下,以便随时复习。两个网络的两个loss需要分别执行backward进行回传的时候: loss1..原创 2021-11-03 18:11:40 · 222 阅读 · 0 评论 -
保存和加载模型
导入需要用到的包import torchimport torch.onnx as onnximport torchvision.models as models保存和加载模型PyTorch 模型将学习到的参数存储在一个名为 的内部状态字典中state_dict。这些可以通过以下torch.save方法持久化:model = models.vgg16(pretrained=True)torch.save(model.state_dict(), 'model_weights.pth..转载 2021-09-10 11:07:31 · 344 阅读 · 0 评论 -
优化模型参数
Datasets & DataLoaders和Build Modelimport torchfrom torch import nnfrom torch.utils.data import DataLoaderfrom torchvision import datasetsfrom torchvision.transforms import ToTensor, Lambdatraining_data = datasets.FashionMNIST( root="data..转载 2021-09-10 10:59:27 · 684 阅读 · 0 评论 -
自动微分机制(backward、torch.autograd.grad)
一、前言神经网络通常依赖反向传播求梯度来更新网络参数,求梯度过程通常是一件非常复杂而容易出错的事情。而深度学习框架可以帮助我们自动地完成这种求梯度运算。Pytorch一般通过反向传播backward方法 实现这种求梯度计算。该方法求得的梯度将存在对应自变量张量的grad属性下。除此之外,也能够调用torch.autograd.grad函数来实现求梯度计算。这就是Pytorch的自动微分机制。二、利用backward方法求导数backward方法通常在一个标量张量上调用,该方法求.转载 2021-09-09 18:47:44 · 355 阅读 · 0 评论 -
Pytorch之构建神经网络
在pytoch中使用torch.nn命名空间提供了你需要建立自己的神经网络的基石。在PyTorch每个模块的子类nn.Module。神经网络是一个模块本身,由其他模块(层)组成。导入你所需要的模块假设构建一个网络模型如下:卷积层--》Relu层--》池化层--》全连接层--》Relu层--》全连接层import osimport torchfrom torch import nnfrom torch.utils.data import DataLoaderfrom torchvi转载 2021-08-18 15:23:04 · 205 阅读 · 0 评论 -
张量常用操作以及归一化
归一化所有TorchVision 数据集都有两个参数“transform修改特征target_transform修改标签 - 接受包含转换逻辑的可调用对象。对于训练,我们需要将特征作为归一化张量,将标签作为单热编码张量。为了进行这些转换,我们使用ToTensor和Lambda。transform=ToTensor(), target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_.转载 2021-08-18 11:18:51 · 2371 阅读 · 0 评论 -
Pytorch加载自己的数据集
转载:https://www.freesion.com/article/3728236956/PyTorch提供了两个数据原语:torch.utils.data.DataLoader:在 周围包装一个可迭代对象Dataset,以便轻松访问样本。torch.utils.data.Dataset:存储样本及其相应的标签,被封装进DataLoader里,实现该方法封装自己的数据和标签。Dataset需要三个方法:__init__ ()函数在实例化 Dataset 对象时运行一次_geti..转载 2021-08-17 16:39:35 · 220 阅读 · 0 评论 -
Pytorch教程
官网自带的链接:https://pytorch.org/tutorials/beginner/basics/tensor_tutorial.html首先导入pytoch工具包,确认下载好torch和torchvision,我使用的是豆瓣源安装。pip install torch===1.5.1 torchvision===0.6.1 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.douban.com/si转载 2021-08-17 11:57:12 · 77 阅读 · 0 评论