![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
写进メ诗的结尾。
这个作者很懒,什么都没留下…
展开
-
Pytorch源码编译Libtorch
新建 libtorch 目录,将 pytorch/torch/include 目录复制到 libtorch 目录下,将 build/lib 目录复制到 libtorch 目录下。文件,该文件中记录了子模块的存储路径和下载地址。打开文件后修改子模块的。如果不能通过 HTTPS 方式更新子模块,可以通过。下载 Pytorch,可通过。都修改好后,依次执行。原创 2023-09-21 11:03:01 · 626 阅读 · 2 评论 -
Pytorch模型转ONNX模型并使用ONNXRuntime运行
【代码】Pytorch模型转ONNX模型并使用ONNXRuntime运行。原创 2023-08-24 10:41:48 · 346 阅读 · 0 评论 -
Pytorch模型转成Libtorch模型
【代码】Pytorch模型转成Libtorch模型。原创 2023-08-17 18:03:48 · 320 阅读 · 0 评论 -
torch.cuda
【代码】torch.cuda。原创 2023-04-19 15:05:38 · 249 阅读 · 0 评论 -
torch.distributed
参考。转载 2023-04-19 11:13:45 · 936 阅读 · 0 评论 -
torch.backends.cudnn
在使用GPU的时候,PyTorch会默认使用cuDNN加速,但是在使用cuDNN的时候,torch.backends.cudnn.benchmark的默认值为False。如果配合上设置Torch的随机种子为固定值的话,应该可以保证每次运行网络的时候相同输入的输出是固定的。如果在可以使用cuDNN的基础上,再设置torch.backends.cudnn.benchmark = True,那么cuDNN使用的非确定性算法就会自动寻找最适合当前配置的高效算法,来达到优化运行效率的目的。原创 2023-04-19 11:01:35 · 1109 阅读 · 0 评论 -
torchvision
torchvision原创 2022-10-25 10:56:52 · 1222 阅读 · 0 评论 -
神经网络
神经网络原创 2022-10-21 10:06:01 · 403 阅读 · 0 评论 -
Autograd:自动求导
autograd原创 2022-10-18 11:06:28 · 741 阅读 · 0 评论 -
CUDA 上的张量
将张量移动到 cpu 或 gpu 上原创 2022-10-15 22:05:52 · 770 阅读 · 0 评论 -
桥接 List
张量与列表的相互转换原创 2022-10-15 22:02:36 · 77 阅读 · 0 评论 -
桥接 NumPy
张量与 numpy 数组的相互转换原创 2022-10-15 22:00:36 · 215 阅读 · 0 评论 -
torch 中的 item() 方法
item()原创 2022-10-15 21:43:44 · 626 阅读 · 0 评论 -
张量形状的重塑
张量形状的重塑原创 2022-10-15 16:35:57 · 182 阅读 · 0 评论 -
张量的拼接
张量的拼接原创 2022-10-15 16:29:18 · 1374 阅读 · 0 评论 -
张量的索引和切片
张量的索引和切片原创 2022-10-15 16:22:03 · 159 阅读 · 0 评论 -
张量的运算
张量的运算原创 2022-10-15 16:18:17 · 323 阅读 · 0 评论 -
张量
张量原创 2022-10-15 11:33:36 · 182 阅读 · 0 评论 -
成功下载gpu版本pytorch
在下载pytorch的时候遇到很多问题:1、从官网下载速度太慢,容易下载中断2、使用清华源下载很快,但是我下载到的都是cpu版本的,哪怕我明明下载的是gpu版本3、从官网下载轮子文件,因网速太慢容易中断;从终端下载也会因为网速问题而中断最后我用下面的命令成功下载了gpu版本的pytorch!下载的时候自动使用清华源,torch版本和torchvision版本自定义。pip install torch==1.7.0 torchvision==0.8.0 -f https://download.py原创 2021-10-11 19:55:07 · 1583 阅读 · 0 评论