pytorch学习
学习pytorch基本语法和实战
斯托克斯求曲线
这个作者很懒,什么都没留下…
展开
-
python深度学习基于pytorch-torch.nn补充
# pytorch# -*- coding: utf-8 -*-# @Author : Tangzhao# @Blog:https://blog.csdn.net/tangzhaotz"""构建神经网络,采用了torch.nn.Squential()来构建网络层,如果要对每一个层定义一个名称,可以采用Squential的一种改进方法,在Squential的基础上,通过add_module()来添加每一层,并且为每一层添加单独的名称此外,还可以在Squential的基础上,通过字典的形式添加原创 2020-07-19 21:04:27 · 345 阅读 · 0 评论 -
python深度学习基于pytorch-torch.nn工具箱
# python深度学习基于pytorch# -*- coding: utf-8 -*-# @Author : Tangzhao# @FileName: torch的nn.py# @Software: PyCharm# @Blog :http://blog.csdn.net/tangzhaotz"""nn.functional与nn.Module中的Layer的主要区别是后者继承Module,会自动提取可以学习的参数,而nn.functional更像是纯函数。像卷积层、全连接层,D原创 2020-07-18 21:45:19 · 721 阅读 · 0 评论 -
python深度学习基于pytorch-pytorch基础
# pytorch# -*- coding: utf-8 -*-# @Author : Tangzhao# @Blog:https://blog.csdn.net/tangzhaotz# tensor概述import torchx = torch.tensor([1,2])y = torch.tensor([3,4])z =x.add(y)print(z)print(x)x.add_(y)print(x)"""ensor([4, 6])tensor([1, 2])tens原创 2020-07-17 21:16:12 · 617 阅读 · 0 评论 -
python深度学习基于pytorch-numpy
# pytorch# -*- coding: utf-8 -*-# @Author : Tangzhao# @Blog:https://blog.csdn.net/tangzhaotzimport numpy as nplst1 = [3.14,2.17,0,1,2]nd1 = np.array(lst1)print(nd1)print(type(nd1))"""[3.14 2.17 0. 1. 2. ]<class 'numpy.ndarray'>"""原创 2020-07-17 21:15:12 · 289 阅读 · 0 评论 -
pytorch实现线性回归
"""目标:知道如何手动完成线性回归假设我们的基础模型就是y = wx+b,其中w和b均为参数,我们使用y = 3x+0.8来构造数据x、y,所以最后通过模型应该能够得出w和b应该分别接近3和0.8步骤:1、准备数据2、计算预测值3、计算损失,把参数的梯度值置为0,进行反向传播4、更新参数"""# import torch# import numpy# from matplotlib import pyplot as plt## # 1、准备数据# x = torch.r原创 2020-06-21 23:09:42 · 398 阅读 · 1 评论 -
动手学习深度学习最新版(pytorch)-线性代数知识
x = torch.arange(4)print(x) # tensor([0, 1, 2, 3])"""我们可以使用下标引用矢量的任何元素。 例如,我们可以引用 x x 的第 i / th 元素 x x x x x x x x i xi。 请注意,元素 x i xi 是一个标量,因此我们在引用它时不使用粗体"""print(x[3]) # tensor(3)# 3、长度、维度和形状"""矢量只是一个数字数组。 就像每个数组都有长度一样,每个向量也有长度。 在数学表示法中,如果我们说原创 2020-06-16 22:09:49 · 261 阅读 · 0 评论 -
动手学习深度学习-pytorch最新版
最近大佬们重新对动手学习深度学习进行修改,加入了pytorch实现的方式,今天发布了最新版,正在完善中,将自己今天的学习笔记记录在此,由于全英文的内容,自己翻译可能不太对,请多多指教!#!H:\pytorch# -*- coding:utf-8 -*- #Author: Tangzhao#content:pytorch# 数据操作# 导入pytorchimport torch# 多维数组代表多维的数值,一维数组代表一个矢量,二维数组表示一个矩阵,超过两位的数组我们称为张量(tensors原创 2020-06-09 22:05:12 · 621 阅读 · 0 评论 -
自动求导
"""autograd 包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的torch.Tensor 是这个包的核心类。如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性.要阻止一个张量被跟踪历史,可以调用 .det原创 2020-05-10 12:00:50 · 474 阅读 · 0 评论 -
动手学习深度学习(pytorch)-线性回归
# 本节介绍使用pytorch来搭建线性回归模型# 1、生成数据集import torchfrom IPython import displayfrom matplotlib import pyplot as pltimport numpy as npimport randomimport torch.nn as nnnum_inputs = 2 # 样本的特征数量num_...原创 2020-03-26 16:49:11 · 347 阅读 · 0 评论 -
动手学习深度学习-梯度
# tensor的属性改为.requires_grad设置为true,它将开始追踪在其上的所有操作(这样就可以利用链式法则进行梯度传播)# 完成计算后,可以调用.backward()来完成所有梯度计算,此Tensor的梯度将累积到.grad属性中"""注意:在y.backward()时,如果y是标量,则不需要为backward()传入任何参数;否则,需要传入一个与y同形的tensor如果...原创 2020-03-25 09:14:03 · 210 阅读 · 0 评论 -
张量高阶操作
# broadcast自动扩张"""从最后一个维度开始,扩张为同一个类型,被扩张前的维度必须为1"""# 拼接和拆分# 1、catimport torcha = torch.rand(4,32,8)b = torch.rand(5,32,8)print(torch.cat([a,b],dim = 0).shape) # torch.Size([9, 32, 8]),在0维度合...原创 2020-03-23 09:42:52 · 428 阅读 · 0 评论 -
pytorch张量基础补充
# 创建tensorimport torchimport numpy as np# 方式一:import from numpy# a = np.array([2,3.3])# b = torch.from_numpy(a)# print(b) # tensor([2.0000, 3.3000], dtype=torch.float64)# a = np.ones([2,3])...原创 2020-03-20 21:43:44 · 769 阅读 · 0 评论 -
pytorch学习-张量
# tensors(张量)# Tensors类似于Numpy的ndarrays,同时Tensors可以使用GPU进行计算from __future__ import print_functionimport torch# 构造一个5x3的矩阵,不初始化x = torch.empty(5,3)print(x)"""tensor([[9.6429e-39, 9.2755e-39, 1...原创 2020-03-05 09:56:34 · 157 阅读 · 0 评论