![](https://img-blog.csdnimg.cn/20190927151053287.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
torch
文章平均质量分 57
torch 的一些介绍
shuaiqidexiaojiejie
这个作者很懒,什么都没留下…
展开
-
torch F.cosine_similarity()使用
torch F.cosine_similarity()使用原创 2023-02-12 11:04:21 · 2205 阅读 · 0 评论 -
Windows 11+RTX3060安装CUDA、cuDNN与Pytorch
实验环境为RTX 3060的Windows 11。我在一开始没有安装合适的CUDA版本,导致最终Pytorch训练时报错,最终只能推倒重来,浪费了不少时间。为了提醒更多的同学在一开始就安装正确的版本,在此记录。...原创 2022-08-10 11:15:33 · 278 阅读 · 0 评论 -
【PyTorch】torch.mean(), dim=0, dim=1 详解
创建一个tensor,这个tensor是一个元素类型为浮点型的2维数组import torchs = torch.arange(6,dtype=float).reshape((2,3))print(s)print(s.shape)# 查看tensor的形状tensor([[0., 1., 2.], [3., 4., 5.]], dtype=torch.float64)torch.Size([2, 3])dim属性的全称是dimension,表示维度。dim=0...原创 2022-04-24 16:02:02 · 382 阅读 · 0 评论 -
PyTorch入门基础串讲
PyTorch的基本概念import torchimport numpy as np"""几种特殊的tensor"""a = torch.Tensor([[1, 2], [3, 4]])print(a)print(a.type())"""输出: tensor([[1., 2.], [3., 4.]]) torch.FloatTensor"""#对比a1 = np.array([[1, 2], [3, 4]])print(a1)"原创 2022-04-17 10:33:47 · 610 阅读 · 0 评论 -
CUDA的配置
环境变量CUDA_SDK_PATH= D:\software\NVIDIA Corporation\CUDA Samples\v10.1CUDA_LIB_PATH = %CUDA_PATH%\lib\x64CUDA_BIN_PATH = %CUDA_PATH%\binCUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib\x64Path%CUDA_LIB_原创 2022-04-11 09:36:52 · 1196 阅读 · 0 评论 -
【Pytorch教程】:变量 (Variable)
目录 Pytorch教程目录 什么是Variable Variable 计算, 梯度 获取 Variable 里面的数据什么是Variable在 Torch 中的 Variable 就是一个存放会变化的值的地理位置。里面的值会不停的变化。我们定义一个 Variable:import torchfrom torch.autograd import Variable # torch 中 Variable 模块# 先生鸡蛋tensor = torch.Flo...转载 2022-04-05 16:40:07 · 1190 阅读 · 0 评论 -
torch.mean()方法
一、方法详解含义:顾名思义,返回一个Tensor的均值torch.mean(input, dim, keepdim=False)input:输入的张量dim:求均值的维度,若dim = 0,则沿行求均值,返回的形状是(1,列数);若dim=1,则沿列 求均值,返回的形状是(行数,1),默认不设置dim的时候,返回的是所有元素的平均值。keepdim:输出张量是否跟输入张量的另一个维度相同需要注意的是 mean()函数只能在float格式的数据上处理如果不是,要不就x = ...原创 2022-04-05 16:04:46 · 3785 阅读 · 1 评论 -
torch.optim优化算法理解之optim.Adam()
torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。optimizer = optim.SGD(model.p原创 2022-04-03 18:46:19 · 21745 阅读 · 1 评论