![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 54
Yale曼陀罗
用数字剥开俗世的纷繁外衣~坚持做精品知识专栏的公益传播者,尊重知识积累、共享学术成果~
展开
-
3.12 权重衰减
3.12 权重衰减3.12.2 高维线性回归试验3.12.3 从零开始实现3.12.3.1 初始化模型参数3.12.3.2 定义L_2范数惩罚项3.12.3.3 定义训练和测试3.12.3.4 观察过拟合3.12.3.5 使用权重衰减3.12.4 简洁实现%matplotlib inlineimport torchimport torch.nn as nnimport numpy as npimport syssys.path.append("..")# import d2lzh_pytorc原创 2021-03-04 15:16:37 · 175 阅读 · 1 评论 -
Faster-RCNN.pytorch的搭建、使用过程详解(适配PyTorch 1.0以上版本)
Faster-RCNN.pytorch的搭建、使用过程详解引言faster-rcnn pytorch代码下载faster-rcnn pytorch配置过程引言本文主要介绍(1)如何跑通源代码;(2)配置过程中遇到的错误调试过程;(3)成功训练自己的数据集。faster-rcnn pytorch代码下载pytorch0.4.0版源码:https://github.com/jwyang/faster-rcnn.pytorch.gitpytorch1.0.0版源码:https://github.com原创 2020-11-27 14:35:37 · 34437 阅读 · 46 评论 -
Pytorch中tensor.expand()和tensor.expand_as()函数
Pytorch中tensor.expand函数Tensor.expand()函数详解Tensor.expand_as()函数Tensor.expand()函数详解函数语法:# 官方解释:Docstring:expand(*sizes) -> TensorReturns a new view of the :attr:`self` tensor with singleton dimensions expandedto a larger size.基本功能:tensor.expand原创 2020-09-16 13:40:23 · 13386 阅读 · 2 评论 -
PyTorch学习笔记——Tensor张量的数据类型的转化、Tensor常见的数据类型、快速创建Tensor
PyTorch学习笔记——Tensor张量的数据类型的转化、Tensor常见的数据类型、快速创建TensorTensor类型与numpy类型、list类型数据的相互转化pytorch中Tensor的数据类型快速创建TensorTensor类型与numpy类型、list类型数据的相互转化函数功能tensor.numpy()将Tensor类型转变为numpy类型torch.from_numpy(ndarray)将numpy类型转变为Tensor类型tensor.tolis原创 2020-08-27 20:02:24 · 48403 阅读 · 3 评论 -
PyTorch实战示例01——regression
Topic:用神经网络模型来建立一条拟合曲线,帮助了解一群数据的关联关系。part01: 创建数据集x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data(tensor),shape=(100,1)y = x.pow(2) + 0.2*torch.rand(x.size()) # add nosiy y data(tensor),shape=(100,1)# torch can only train on Variabl原创 2020-06-29 10:49:48 · 929 阅读 · 0 评论 -
浅谈Pytorch中的Variable的使用方法
浅谈Pytorch中的Variable的使用方法Variable的基本概念Variable的自动求导PyTorch中Variable的使用方法获取Variable里面的数据完整教学实例Variable的基本概念autograd.Variable 是包的核心类。它包装了张量,并且支持几乎所有的操作。一旦你完成了你的计算, 就可以调用 .backward() 方法 来自动计算所有的梯度。你还可以通过 .data 属性来访问原始的张量,而关于该 variable(变量)的梯度会被累计到 .grad上去。通俗原创 2020-06-19 17:51:10 · 16373 阅读 · 9 评论 -
PyTorch学习笔记——常用函数总结(一)のtorch.squeeze()和Tensor常见创建方法
PyTorch学习笔记——常用函数总结(一)torch.squeeze() 和torch.unsqueeze()——对数据的维度进行压缩或者解压torch.randn() 和torch.rand()——标准正态分布和均匀分布torch.squeeze() 和torch.unsqueeze()——对数据的维度进行压缩或者解压torch.squeeze() 函数详解:核心功能:这个函数主要对数据的维度进行压缩,去掉维数为1的的维度。比如:是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为原创 2020-06-19 13:06:06 · 2479 阅读 · 0 评论 -
PyTorch中关于backward、grad、autograd的计算原理的深度剖析
PyTorch中关于backward、grad、autograd的计算原理的深度剖析PyTorch中Tensor的详细说明PyTorch中Tensor的详细说明PyTorch中所有的计算其实都可以回归到Tensor上,所以有必要重新认识一下Tensor。如果我们需要计算某个Tensor的导数,那么我们需要设置其.requires_grad属性为True。在PyTorch我们自己定义的变量,我们称之为叶子节点(leaf nodes),而基于叶子节点得到的中间或最终变量则可称之为结果节点。例如下面例子中的原创 2020-06-19 11:47:47 · 13610 阅读 · 4 评论