pytorch 学习
文章平均质量分 73
狂热微风
这个作者很懒,什么都没留下…
展开
-
pytorch script traced model 以及 模型保存 详解
(由于 torch.jit.trace 方法只跟踪了给定输入张量的执行路径,因此在使用转换后的模块对象进行推理时,输入张量的维度和数据类型必须与跟踪时使用的相同。torch.jit.save 用于保存使用 torch.jit.script 或 torch.jit.trace 转换后的模块对象。torch.jit.load 用于加载使用 torch.jit.script 或 torch.jit.trace 转换后的模块对象。原创 2023-10-20 11:15:03 · 575 阅读 · 1 评论 -
深度学习环境配置指南!(Windows、Mac、Ubuntu全讲解)
所有的深度学习环境安装指南到这里就结束了,希望能解决你面临的环境配置难题。关于实践项目,可以结合阿里天池的学习赛进行动手实践。原创 2023-08-02 10:36:04 · 2195 阅读 · 0 评论 -
图像数据读取加速
dali,turbo等不同图解码库加速对比原创 2022-11-04 16:59:03 · 210 阅读 · 0 评论 -
tensorrt 从0开始搭建部署环境
深度学习cuda 加速, tensorrt环境搭建原创 2022-09-06 16:59:15 · 435 阅读 · 0 评论 -
torchserve 部署模型 自定义 handler 实践
torchserve完美推理以及模型部署原创 2022-08-24 15:19:26 · 895 阅读 · 0 评论 -
各主流深度学习框架转换onnx
Paddle2onnx模型转换动态图ONNX模型导出和静态图ONNX模型导出;动态图大致的原理就是动转静,然后再将静态图模型转换为ONNX模型,所以转换的代码上与动转静很相似;import osimport time import paddle# 从模型代码中导入模型from u2net import U2NETP# 实例化模型model = U2NETP()# 加载预训练模型参数model.set_dict(paddle.load([path to the pretrain原创 2021-12-20 11:10:00 · 1267 阅读 · 0 评论 -
ONNX的笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档ONNX前言一、ONNX概念?1.ONNX Overview2.ONNX modelONNX Operator SetsONNX OperatorONNX GraphNames Within a GraphNode二、使用步骤(API)1. Loading an ONNX Model2. Saving an ONNX Model3. ManipulatingTensorProtoandNumpyArray4. Creating an ONN原创 2021-12-17 11:12:55 · 291 阅读 · 0 评论 -
pytorch 分布式训练 详解
主要两种方式:DataParallel和DistributedDataParallelDataParallel实现简单,但速度较慢,且存在负载不均衡的问题。DistributedDataParallel本身是实现多机多卡的,但单机多卡也可以使用,配置稍复杂。详情如下:DataParallel : Parameter Server模式,一张卡为reducer, 负载不均衡的问题比较严重,reducer的那张卡会多出3-4g的显存占用;command model = nn.DataParalle原创 2021-04-06 11:09:38 · 697 阅读 · 0 评论