python之name binding

python之name binding

@(Python学习-随手记)[python之name binding, 帮助]

名字

  • 名字是对一个对象的称呼,一个对象可以只有一个名字,也可以没有名字或取多个名字。但对象自己却不知道有多少名字,叫什么,只有名字本身知道它所指向的是个什么对象。给对象取一个名字的操作叫作命名,python将赋值语句认为是一个命名操作(或者称为名字绑定)。
  • 名字在一定的名字空间内有效,而且唯一,不可能在同一个名字空间内有两个或更多的对象取同一名字。

  • 案例:i = 1。在python中,他有两个含义:
    • 创建一个值为1的整型对象
    • i是指向该整型对象的名字(而且它是一个引用)

绑定

  • 绑定:就是将一个对象和一个名字联系起来,准确的说,就是增加该对象的引用计数
  • 众所周知,C++中一大问题就是内存泄漏 – 即动态分配的内存没有能够回收,而解决这一问题的利器之一就是引用计数。python就采用了这一技术实现其垃圾回收机制。
  • python中所有的对象都有引用计数

  • 案例:i = i+1,在python中,有三个含义
    • 创建了一个新的对象,值为i+1
    • i这个名字指向了该新建的对象,新建对象的引用计数+1,而i之前所指向的老对象的引用计数-1
    • i所指向的老对象的值并没有发生改变

参考

http://blog.csdn.net/jrgao/article/details/22248

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
生成的 Python 引擎文件通常指的是使用 TensorRT 将模型从 ONNX 或其他格式编译成的 TensorRT 引擎文件(.engine 格式)。下面是使用 Python 调用 TensorRT 引擎文件进行推理的一般步骤: 1. 安装 TensorRT:首先,确保已经按照正确的步骤安装了 TensorRT 并设置好相应的环境变量。 2. 导入相关库:在 Python 代码中导入必要的库,如 TensorRT、numpy 和 cv2(用于图像处理)。 3. 加载引擎文件:使用 TensorRT 的 `trt.Runtime` 类加载引擎文件。例如: ```python import tensorrt as trt TRT_LOGGER = trt.Logger(trt.Logger.WARNING) trt_runtime = trt.Runtime(TRT_LOGGER) # 加载引擎文件 with open('<path_to_engine_file>', 'rb') as f: engine_data = f.read() engine = trt_runtime.deserialize_cuda_engine(engine_data) ``` 4. 创建执行上下文:使用引擎创建一个执行上下文(execution context),用于推理操作。例如: ```python context = engine.create_execution_context() ``` 5. 分配输入和输出内存:为推理操作分配输入和输出内存。根据模型的要求,创建适当大小的输入和输出张量。例如: ```python input_shape = (batch_size, channels, height, width) output_shape = (batch_size, num_classes, output_height, output_width) # 分配输入和输出内存 input_bindings = [] output_bindings = [] for binding in engine: if engine.binding_is_input(binding): # 输入内存 input_shape = engine.get_binding_shape(binding) input_dtype = engine.get_binding_dtype(binding) input_data = np.empty(input_shape, dtype=input_dtype) input_bindings.append({"name": binding, "data": input_data}) else: # 输出内存 output_shape = engine.get_binding_shape(binding) output_dtype = engine.get_binding_dtype(binding) output_data = np.empty(output_shape, dtype=output_dtype) output_bindings.append({"name": binding, "data": output_data}) ``` 6. 执行推理:将输入数据加载到输入内存中,然后使用执行上下文执行推理操作。例如: ```python # 将输入数据加载到输入内存中 input_data = np.random.random(input_shape) # 用你自己的数据替换这里的随机数据 for binding in input_bindings: np.copyto(binding["data"], input_data) # 执行推理 context.execute_v2({binding["name"]: binding["data"].data_ptr() for binding in input_bindings}) # 从输出内存中获取结果 for binding in output_bindings: np.copyto(binding["data"], output_data) ``` 7. 处理输出结果:根据你的需求,对输出结果进行后处理(如非极大值抑制)并进行适当的可视化或其他操作。 这是一个简单的示例,用于展示如何使用 Python 调用 TensorRT 引擎文件进行推理。具体的操作可能会因为 TensorRT 版本和所使用的库版本而有所不同。建议查阅 TensorRT 的官方文档和示例代码以获取更详细的操作说明和示例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值