Pytorch学习(1)

引用文章pytorch入门(超详细)

什么是pytorch?


pytorch是一个基于Python的科学计算包,它主要有两个用途:

类似于Numpy但是能利用GPU加速
一个非常灵活和快速用于深度学习的研究平台。
 

import torch
#构建一个5x3的未初始化的矩阵
x = torch.empty(5,3)
print(x)

#tensor([[9.9184e-39, 8.7245e-39, 9.2755e-39],
        [8.9082e-39, 9.9184e-39, 8.4490e-39],
        [9.6429e-39, 1.0653e-38, 1.0469e-38],
        [4.2246e-39, 1.0378e-38, 9.6429e-39],
        [9.2755e-39, 9.7346e-39, 1.0745e-38]])

pytorch基础用法

tensor与numpy的转化

torch tensor和numpy公用一段空间,因此改变其中一个的值,会影响另外一个值。

a = torch.ones(5)
print(a)
#tensor([ 1.,  1.,  1.,  1.,  1.])
b = a.numpy()
print(b)
#[1. 1. 1. 1. 1.]

可以用tensor.to()将创建的张量转移至gpu或cpu

​
​
import torch

x = torch.empty(5, 3)
print(x)
if torch.cuda.is_available():
    device = torch.device("cuda")  # 一个CUDA device对象。
    y = torch.ones_like(x, device=device)  # 直接在GPU上创建tensor
    print(x)
    x = x.to(device)  # 也可以使用``.to("cuda")``把一个tensor从CPU移到GPU上
    z = x + y
    print(z)
    print(z.to("cpu", torch.double))  # ``.to``也可以在移动的过程中修改dtype
#输出:
tensor([[-4.2086e+02,  6.1517e-43, -4.2086e+02],
        [ 6.1517e-43, -4.2098e+02,  6.1517e-43],
        [-4.2098e+02,  6.1517e-43, -4.2096e+02],
        [ 6.1517e-43, -4.2096e+02,  6.1517e-43],
        [-4.2097e+02,  6.1517e-43, -4.2097e+02]])
tensor([[-4.2086e+02,  6.1517e-43, -4.2086e+02],
        [ 6.1517e-43, -4.2098e+02,  6.1517e-43],
        [-4.2098e+02,  6.1517e-43, -4.2096e+02],
        [ 6.1517e-43, -4.2096e+02,  6.1517e-43],
        [-4.2097e+02,  6.1517e-43, -4.2097e+02]])
tensor([[-419.8618,    1.0000, -419.8618],
        [   1.0000, -419.9810,    1.0000],
        [-419.9810,    1.0000, -419.9595],
        [   1.0000, -419.9595,    1.0000],
        [-419.9731,    1.0000, -419.9731]], device='cuda:0')
tensor([[-419.8618,    1.0000, -419.8618],
        [   1.0000, -419.9810,    1.0000],
        [-419.9810,    1.0000, -419.9595],
        [   1.0000, -419.9595,    1.0000],
        [-419.9731,    1.0000, -419.9731]], dtype=torch.float64)
​

​

如果两个张量不在同一个device,则编译出错。

Autograd:自动求导

        PyTorch的核心是autograd包。如果它的属性requires_grad是True,那么PyTorch就会追踪所有与之相关的operation。当完成(正向)计算之后, 我们可以调用backward(),PyTorch会自动的把所有的梯度都计算好。其中grade属性包含tensor相关的梯度。

        可以调用detach(),组织pytorch记录梯度计算的信息,节约内存。例如在模型的预测时,我们不需要计算梯度,可以使用 with torch.no_grad()。

        Autograd实现与Fuction类相关,他们完整记录了计算的流程,因此每个tensor(初始建立的tensor除外)有一个grad_fn属性

x = torch.ones(2, 2, requires_grad=True)
print(x)
y = x + 2
z = y * y * 3
out = z.mean()
out.backward()
print(x.grad)

​#
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

在定义x时,一定要设置梯度,否则运行错误。

用Pytorch训练网络

阅读上一篇文章,总体将pytorch的训练步骤划分为以下几个步骤:

  • 定义一个网络模型,通常有一系列可以训练的参数
  • 迭代一个数据集(dataset)
  • 处理网络的输入
  • 计算损失函数loss(调用forward正向传播)
  • 计算loss对与各个参数的梯度(用backward反向传播)
  • 更新参数 w = w - \alpha \cdot dw

pytorch.nn.conv2d(inputs_channel, outputs_channel, kernel_size)

pytorch.nn.function.max_pool2d(kernel_size, stride,padding)  stride默认为kernel_size

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Model):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.conv2d(1, 6, 5)
        self.conv2 = nn.conv2d(6, 16, 5)
        self.fc1 = nn.linear(16*5*5, 120)
        self.fc2 = nn.linear(120, 84)
        self.fc3 = nn.linear(84, 10)

    def forward(self, x):
        #32*32 -> 28*28 -> 14*14
        x = self.conv1(x)
        x = F.relu(x)
        x = F.max_pool2d(x, (2, 2))
        #14*14 -> 10*10 -> 5*5
        x = self.conv2(x)
        x = F.relu(x)
        x = F.max_pool2d(x, (2, 2))

        x = x.view(-1, self.num_flat_features(x))
        x = self.fc1(x)
        x = F.relu(x)
        x = self.fc2(x)
        x = F.relu(x)
        x = self.fc3(x)
        return x

    def num_flat_features(self, x):
        size = x.size[1:]  #除了batch以外的其他维度
        num_features = 1
        for s in size:
            num_features *= s
        return num_features

#建立一个Net类实例
net = Net()

测试网络

随机尝试用一个32*32的输入来检验网络,而MNIST是28*28。

input = torch.randn(1, 1, 32, 32)
out = net(input)
print(out)

#输出:
tensor([[-0.1178,  0.1123,  0.0038, -0.1217, -0.0899,  0.0041, -0.0068,  0.0319,
          0.0486,  0.0315]], grad_fn=<AddmmBackward>)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
C语言是一种广泛使用的编程语言,它具有高效、灵活、可移植性强等特点,被广泛应用于操作系统、嵌入式系统、数据库、编译器等领域的开发。C语言的基本语法包括变量、数据类型、运算符、控制结构(如if语句、循环语句等)、函数、指针等。下面详细介绍C语言的基本概念和语法。 1. 变量和数据类型 在C语言中,变量用于存储数据,数据类型用于定义变量的类型和范围。C语言支持多种数据类型,包括基本数据类型(如int、float、char等)和复合数据类型(如结构体、联合等)。 2. 运算符 C语言中常用的运算符包括算术运算符(如+、、、/等)、关系运算符(如==、!=、、=、<、<=等)、逻辑运算符(如&&、||、!等)。此外,还有位运算符(如&、|、^等)和指针运算符(如、等)。 3. 控制结构 C语言中常用的控制结构包括if语句、循环语句(如for、while等)和switch语句。通过这些控制结构,可以实现程序的分支、循环和多路选择等功能。 4. 函数 函数是C语言中用于封装代码的单元,可以实现代码的复用和模块化。C语言中定义函数使用关键字“void”或返回值类型(如int、float等),并通过“{”和“}”括起来的代码块来实现函数的功能。 5. 指针 指针是C语言中用于存储变量地址的变量。通过指针,可以实现对内存的间接访问和修改。C语言中定义指针使用星号()符号,指向数组、字符串和结构体等数据结构时,还需要注意数组名和字符串常量的特殊性质。 6. 数组和字符串 数组是C语言中用于存储同类型数据的结构,可以通过索引访问和修改数组中的元素。字符串是C语言中用于存储文本数据的特殊类型,通常以字符串常量的形式出现,用双引号("...")括起来,末尾自动添加'\0'字符。 7. 结构体和联合 结构体和联合是C语言中用于存储不同类型数据的复合数据类型。结构体由多个成员组成,每个成员可以是不同的数据类型;联合由多个变量组成,它们共用同一块内存空间。通过结构体和联合,可以实现数据的封装和抽象。 8. 文件操作 C语言中通过文件操作函数(如fopen、fclose、fread、fwrite等)实现对文件的读写操作。文件操作函数通常返回文件指针,用于表示打开的文件。通过文件指针,可以进行文件的定位、读写等操作。 总之,C语言是一种功能强大、灵活高效的编程语言,广泛应用于各种领域。掌握C语言的基本语法和数据结构,可以为编程学习和实践打下坚实的基础。
该资源内项目源码是个人的课程设计、毕业设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 该资源内项目源码是个人的课程设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值