自动驾驶perception模块orin vs 3090 benchmark

[概述]最近在移植了apollo工程到orin上后,主要做了一些benchmark,主要是localization模块和perception模块,因为这两个模块都有使用GPU。

模型转换

做这个benchmark前期主要除了工程移植以外。还有要做模型的转换,把模型转换成orin上使用的engine。

这里使用的是trtexec工具以及代码转换,主要要注意的是一些自定义层的问题,由于模型会涉及一些自定义层,所以在转换的时候要把相应插件动态库load进去或者修改trtexec源码,增加对应的插件部分。

测试结果

在我测试的模块里,perception主要有maskrcnn,pointpillar以及centerpoint三个模型,由于信息安全问题,我不便详细讲每个模型的具体数据表现,总体情况,整个pipeline orin上的latency大概是3090的1.75倍,但是orin的gpu使用率比较高,几乎打满,3090的大概在60%左右。可以供各位做一个参考,这里记录一下。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值