- 博客(5)
- 收藏
- 关注
原创 cuda编程实现warpaffine的例子
使用cuda加速需要评估计算和搬运的得失平衡。一般来说,复杂运算且支持并行的图形计算,cuda有着明显的优势,但同时,I/O的交互开销也是需要关注的。综合考量才能实现效率提升。
2024-10-11 17:52:01 162
原创 ceres库 曲线拟合
首先你需要定义一个模型函数,这个函数描述了曲线的形状,并且包含了需要拟合的参数。Ceres库是一个用于非线性最小二乘问题的C++库,它可以用来进行曲线拟合。:设置求解器的配置参数,如线性求解器类型、迭代次数、是否输出进度等。:接着定义一个残差函数,它计算模型函数和实际观测数据之间的差异。类来构建优化问题,将残差函数添加到问题中。:调用求解器来求解问题,并获取结果。下面是一个高斯曲线拟合的例子。
2024-09-25 09:43:16 287
原创 paddlle训练脚本
("D:\\documents\\work\\xx2.pth",".weights" )],#这里写所有的资源文件,格式为('资源文件的绝对路径\\xx.pth','生成位置')pathex=['D:\\documents\\work\\RealBasicVSR-master'],#这里写项目所在位置的绝对路径。"D:\\..\\models\\builde.py",#这里写项目里所有用到的.py文件的绝对路径。binaries=[],#这里是二进制文件,我试过把.pth写在这里,会报错。
2024-09-24 13:23:05 604
原创 tensorrt 精度分析
比如: trtexec.exe --onnx=model.onnx --saveEngine=model.engine --noTF32。1、trt的engine生成需要适配本地环境,一般用trtexec.exe脚本实现。2、转换后的模型精度可以用polygraphy来分析。
2024-09-24 08:38:15 261
原创 onnxruntime c++ 推理例子
内存竞技场是一块预先分配的内存区域,用于存储模型推理过程中的所有中间数据。这种机制可以减少频繁的内存分配和释放操作,从而提高性能,尤其是在处理多个推理请求时。是 ONNX Runtime 中的一个会话选项,用于控制是否在模型推理过程中使用内存模式优化。内存模式优化是指 ONNX Runtime 会根据模型的内存访问模式来分配和重用内存,以减少内存分配和释放的开销,从而提高推理性能。然而,在某些情况下,如多线程环境中,内存竞技场可能会导致内存使用不断增加,因为分配的内存不会立即释放回操作系统。
2024-09-20 16:45:43 445
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人