![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 75
ygys1234
这个作者很懒,什么都没留下…
展开
-
pytorch入门(十):repeat
repeatpytorch的张量与numpy的数组有很多相似之处,但repeat有明显差异。1、方向repeat(repeats,axis)的两个参数,分别表示重复的次数和方向。对于二维数组,axis = 1表示垂直方向,axis = 2表示水平方向,与torch.sum和np.repeat都不一样。2、重复的方式np的重复方式是各向量分别重复,如 001122torch的重复方式为整块复制,如 012012import numpy as npa = np.arange(6).resh原创 2021-04-13 10:06:03 · 570 阅读 · 1 评论 -
代码急转弯——from . import
代码急转弯——from . import xxx1、import2、问题引入3、from .xxx import xxx1、import导入,用于实现在a文件中调用b文件的函数,即我如何调你的函数?格式1:from m1 import fun在m1.py文件中定义了函数fun,如果想在a.py文件中调用fun,先编写上述命令导入指定的fun函数,然后就能在a.py中调用fun函数了。格式2:from m1 import *导入了m1.py中的各个函数,自然也包括fun函数。格式3:i原创 2021-01-29 14:35:28 · 306 阅读 · 2 评论 -
pytorch入门(九):处理异或问题
处理异或1、什么是异或?2、异或是线性不可分的3、用逻辑回归建模4、用简单神经网络处理异或1、什么是异或?异或是一种二元运算&。一位二进制数的&运算规则为: 0 ^ 1 = 1 1 ^ 0 = 1 1 ^ 1 = 0 0 ^ 0 = 0提问:11&22 等于多少?先把11化为5位二进制数,得到 (01011)2(01原创 2021-01-01 11:49:03 · 2307 阅读 · 0 评论 -
pytorch入门(七):unsqueeze
@TOC在这里插入代码片unsqueeze用来改变Tensor的维度,把低维的Tensor变为高维的Tensor。如3×4的Tensor,变为1×3×4、3×1×4、3×4×1的Tensor。先造一个3×4的Tensor,看看结果。a = torch.arange(12).reshape(3,4)print(a)tensor([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10, 11]])用squeeze做升维操作原创 2020-11-14 00:45:40 · 4745 阅读 · 0 评论 -
pytorch入门(六):神经网络是万能的吗?
有万能的神经网?1、神经元2、一个简单的神经网络3、万能的神经网络原创 2020-08-16 12:28:57 · 543 阅读 · 1 评论 -
pytorch入门(五):什么是广播运算?
什么是广播运算?1、概念2、规则3、应用4、转化5、向量运算6、升维7、降维8、随机数种子9、正态分布随机数10、随机整数11、函数12、求和13、点乘torch与numpy有不少相似之处,可看作gpu版本的numpy代码import numpy as npimport torch1、概念arangeprint(np.arange(6))print(torch.arange(6))结果[0 1 2 3 4 5]tensor([0, 1, 2, 3, 4, 5])2、规则改变形原创 2020-08-05 13:19:52 · 3089 阅读 · 0 评论 -
pytorch入门(四):gpu 比 cpu 快吗?
gpu 比 cpu 快吗? 早期的计算机是顺序执行程序的,每次执行一个程序中的一个函数。为了提高机器的利用率,允许机器同时执行多个程序或者多个函数,前者称为多进程,后者称为多线程,常采用基于任务的并行处理方式。gpu是一种基于数据的并行处理方式,它将数据分解为多个部分,在多个计算单元中分别计算。在pytorch中,只需要说明数据的位置即可。 一般来说,用cpu训练模型花费的时间比用gpu的用时要多出几十倍,但并非总是如此。下列代码分别对10×10、100×100、1000×1000元素的数组做加法运原创 2020-08-04 10:38:35 · 1446 阅读 · 0 评论 -
pytorch入门(三):加法的陷阱
如何执行加法?有几种方法执行加法运算先准备两个变量a、ba = torch.Tensor([1,1,1])b = torch.Tensor([2,3,4])第一种方法是写一个加法表达式c = a + bprint(c)结果tensor([3., 4., 5.])第二种方法是调用torch的加法函数c = torch.add(a, b)print(c)结果tensor([3., 4., 5.])也可以调用a的加法函数c = a.add(a, b)print(c)原创 2020-07-29 10:33:24 · 1712 阅读 · 0 评论 -
pytorch入门(二):numpy与pytorch(续)
比较numpy与pytorch的用法,涉及到分点、单值、切片、过滤、下标、转置、排序、量词、元素类型、维度、改变元素类型、全1、同形等基本操作。原创 2020-07-19 22:32:10 · 348 阅读 · 0 评论 -
pytorch入门(一):numpy与pytorch
torch与numpy有不少相似之处,可看作gpu版本的numpy。比较arange、reshape。matmil、mm、T、from_numpy、unsqueeze、sequeeze、seed、randn、normal、randint、sin、sum、mul、multiply等操作。原创 2020-07-19 18:22:26 · 1717 阅读 · 0 评论