![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch教程
文章平均质量分 58
Pytorch我看过的最好的,最详细的教程
爱冒险的梦啊
在校大学生,菜鸡一个,写的东西都是我们上课讲的或者自己在b站上学的,来当作笔记的,喜欢的可以关注下,希望有大佬看出错误及时指出,感谢各位大佬
展开
-
Pytorch详细教程——13.Code For Deep Learning
我们称他们为3×3的张量的均值的时候,输出是一个标量张量,如果我们想要把这个值(tensor(5))作为一个数字,我们可以用item张量法来做,它只适用于标量值张量,看看我们如何在一个张量中访问多个值。首先是缩减的定义,一个张量的缩减操作是一个减少张量中包含的元素数量的操作,最终我们所作的张量运算是管理我们的张量中所包含的数据元素。答案肯定是否定的,事实上,我们通常一次减少特定的轴,这通常会导致输出的减少,有多个元素来减少一个关于特定轴的张量,我们使用相同的方法,我们只是传递维度参数的值。...原创 2022-07-29 21:50:27 · 238 阅读 · 0 评论 -
Pytorch详细教程——12.Tensors For Deep Learning
还有一个重要的地方就是两个张量必须具有相同元素个数才能执行一个元素的操作,并且必须具有相同的形状才能执行一个元素操作,具有相同的形状意味着张量在每一个对应的轴上有相同数量的轴,并且他们的长度相同,这确保了执行元素操作是可以的。通常我们看到的张量的运算是标量之间的运算,但是有一个问题就是,我们说元素之间的操作必须是相同的形状,但是标量的形状肯定和张量不相同,那怎么理解呢?元素操作的定义元素运算是对张量元素的运算,这些张量元素在张量中对应或有相同的索引位置,元素的操作是在对应的元素上进行的,并且是对应的。...原创 2022-07-27 20:38:53 · 305 阅读 · 0 评论 -
Pytorch详细教程——11.CNN Flatten Operation Visualized
我们看这个变平的结果,我们把所有的图像都映射到了一个单独的轴上面,1代表第一张图的像素,2代表第二张图的像素,3代表第三张图的像素,4代表第四张图的像素,这个flatten的效果不太好,因为所有的图像都被压缩成一个,我们需要对每一个图像进行单独预测,这里的解决方法就是保持批轴的同时使每个图像都变平。第一个轴有三个元素,第一个轴的每个元素代表一个图像,对于每个图像,我们有一个包含单个通道的彩色通道轴,在每个通道轴中我们有四个数组,其中包含四个数字或张量的标量分量。在第一个图像的第一个颜色通道中有第一行像素。.原创 2022-07-26 16:08:30 · 397 阅读 · 0 评论 -
Pytorch详细教程——10.Flatten, Reshape, And Squeeze Explained
因为输入的张量是任何形状的,我们通过-1来表示重塑函数的第二个参数,在pytorch中-1会告诉reshape函数,根据一个张量中的包含的其他值和元素的个数来求出值应该是多少(可以理解为占位符?),因为t有12个元素,这个被重塑的函数能够计算出第二个轴的长度是12个,以确保一个张量中的元素空间足够大。flatten一个tensor意味着除去所有的轴,只保留一个,它创造了一个单轴的张量,它包含了张量的元素,所以本质上是把一个张量拉平,我们创建了一个一维数组,它包含了张量的所有标量分量。...原创 2022-07-25 22:42:41 · 716 阅读 · 0 评论 -
Pytorch详细教程——9.Creating PyTorch Tensors
当我们说pytorch和numpy数组共享内存的时候,我们只是说内存中的实际数据存在于一个地方,因此在底层数据发生的任何变化都反应在这两个对象中,共享数据比复制数据更加有效,使用更小的内存,因为数据没有写到内存中的两个位置,而是只有一个位置。但是我们可以根据结果看到前两个张量没有变化,然而第二组也就是后两个出现了变化,这种差异是由于在创建选项分配内存的方式造成的,前两个选项在内存中创建一个额外的输入数据副本,第二种也就是后两个方法是用数字数组在内存中共享数据。上节课我们说的创建张量的四种方法。...原创 2022-07-25 21:10:29 · 164 阅读 · 0 评论 -
Pytorch详细教程——8.PyTorch Tensors Explained
Tensor是神经网络常用的数据结构,在进行应用的时候,第一行代码通常是数据的预处理操作,数据的预处理最终目的是将我们正在处理的任何数据结构转换成神经网络可以使用的。index0代表第一个GPU设备,记住要使用多设备的时候,张量之间的操作必须与存在同意设备上的张量发生。除了第一种不一样,其余的都是一样的,我们将在下一节介绍这四种的不同和应该选哪一种最合适创建张量。所以说对于张量来说我们要记住一个是张量的类型,另一个就是张量的设备。创建一个有两个坐标轴的秩为2的张量,两者的长度都是2。第四种也是一样的。...原创 2022-07-25 17:22:13 · 376 阅读 · 0 评论 -
Pytorch详细教程——7.CNN Tensor Shape Explained
Tensor的实例及概念应用原创 2022-07-25 16:06:24 · 638 阅读 · 0 评论 -
Pytorch详细教程——6.Rank, Axes, And Shape Explained
张量的秩、轴、形状原创 2022-07-25 15:09:08 · 383 阅读 · 0 评论 -
Pytorch详细教程——5.Tensors Explained
tensor(张量)的介绍原创 2022-07-25 12:44:44 · 118 阅读 · 0 评论 -
Pytorch详细教程——3.PyTorch Install and CUDA
Pytorch的安装以及CUDA的介绍原创 2022-07-25 10:45:43 · 988 阅读 · 0 评论 -
Pytorch详细教程——2.PyTorch Explained
torch.nn和torch.autograd是Pytorch的主要工作包,torch.nn是关于神经网络的包,包含类和模块比如前向传播所用到的函数,权重等。对于Python来说,最流行的科学计算包是numpy,它是n维数组的转换包,而Pytorch是一个张量库,它非常密切的反应了numpy的多维数组功能,它与numpy具有高度的互操作性。torch.utils是一个子包,它包括像数据集和数据加载器这样的实用程序类,使数据预处理更加容易。torch.optim是优化的包,像SGD,Adam等。...原创 2022-07-25 09:39:06 · 104 阅读 · 0 评论 -
Pytorch详细教程——1.Pytorch Prerequisites
Pytorch最详细的教程原创 2022-07-25 09:13:36 · 150 阅读 · 0 评论