【jetson推理内存信息】

提示:jetson推理内存信息:MemUsageChange 记录自用


一、分析

提示:这是原输出内容:
[MemUsageChange] TensorRT-managed allocation in engine deserialization: CPU +0, GPU +1, now: CPU 0, GPU 13 (MiB)


这句话实际上是在描述 TensorRT 在执行模型反序列化(即从预先生成的 .engine 文件加载模型到内存)时的内存使用情况。


  1. TensorRT-managed allocation: 这意味着 TensorRT 自己负责管理这块内存的分配和释放。
  2. in engine deserialization: 这是在模型从硬盘加载到内存(反序列化)的过程中。
  3. CPU +0, GPU +1: 这表示在这个反序列化过程中,CPU 内存没有增加(+0),而 GPU 内存增加了 1 MiB(+1)。
  4. now: CPU 0, GPU 13 (MiB): 这表示反序列化后,当前总的 CPU 和 GPU 内存使用量分别是 0 MiB 和 13 MiB。

二、总结

简单来说,这句话告诉我们:在从硬盘加载这个 TensorRT 模型的过程中,系统没有使用额外的 CPU 内存,但是 GPU 内存增加了 1 MiB,使得现在 GPU 上总共使用了 13 MiB 的内存。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Jetson是一个基于ARM架构的嵌入式系统,它非常适合进行深度学习推理。TensorRT是一个高性能深度学习推理引擎,可以在Jetson上使用Python进行推理。 以下是一个简单的示例代码,演示如何在Jetson上使用Python进行TensorRT推理: ```python import tensorrt as trt import pycuda.driver as cuda import pycuda.autoinit import numpy as np # 加载模型 TRT_LOGGER = trt.Logger(trt.Logger.WARNING) with open('model.trt', 'rb') as f: engine = trt.Runtime(TRT_LOGGER).deserialize_cuda_engine(f.read()) # 创建执行上下文 context = engine.create_execution_context() # 准备输入和输出张量 input_shape = engine.get_binding_shape(0) output_shape = engine.get_binding_shape(1) input_dtype = trt.nptype(engine.get_binding_dtype(0)) output_dtype = trt.nptype(engine.get_binding_dtype(1)) input_data = np.ones(input_shape, dtype=input_dtype) output_data = np.zeros(output_shape, dtype=output_dtype) # 分配设备内存 d_input = cuda.mem_alloc(input_data.nbytes) d_output = cuda.mem_alloc(output_data.nbytes) # 创建流 stream = cuda.Stream() # 执行推理 cuda.memcpy_htod_async(d_input, input_data, stream) context.execute_async_v2(bindings=[int(d_input), int(d_output)], stream_handle=stream.handle) cuda.memcpy_dtoh_async(output_data, d_output, stream) # 等待推理完成 stream.synchronize() # 输出结果 print(output_data) ``` 以上代码中,我们首先加载了一个TensorRT引擎,然后创建了一个执行上下文。接着,我们准备了输入和输出张量,并在设备上分配了内存。然后,我们创建了一个流,并使用创建的执行上下文执行了推理,最后等待推理完成并输出了结果。 需要注意的是,以上代码仅仅是一个简单的示例,实际使用中需要根据具体的模型和数据进行相应的修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值