AI
文章平均质量分 64
奔跑的码仔
心有多大,舞台就有多大
展开
-
1_TX2入门-JetPack安装
NVIDIA JetPack SDK是用于构建AI应用程序的最全面的解决方案。 使用JetPack安装程序使用最新的操作系统映像刷新Jetson Developer Kit,为主机PC和Developer Kit安装开发人员工具,并安装快速启动开发环境所需的库和API,示例和文档。文章目录JetPack包括的内容OS ImageLibrariesDeveloper ToolsSamples下载安...原创 2019-03-29 08:26:17 · 2004 阅读 · 0 评论 -
2_TX2入门-基本使用
下面记录TX2的一些基本使用方式GPU性能监测不同于NVIDIA的nvidia-smi(nvidia-smi不支持Jetson平台),在Tx1/Tx2平台下,监测GPU的使用情况的工具是:tegrastats,其位置一般在HOME目录下。tegrastats运行时需要root权限。下面为TX2平台下的tegrastats运行时的输出:RAM 3852/7846MB (lfb 297x4MB...原创 2019-04-23 16:30:53 · 2289 阅读 · 0 评论 -
4_TensorRT概况
文章目录什么是TensorRTTensorRT的优势谁可以从TensorRT中受益TensorRT适用于哪里TensorRT如何工作TensorRT提供何种能力哪里可以获得TensorRT使用c++ API处理TensorRT实例化TensorRT创建网络定义使用C ++ API从头开始创建网络定义使用解析器导入模型使用C ++ Parser API导入Caffe模型使用C ++ UFF Pars...原创 2019-04-23 16:31:59 · 1139 阅读 · 0 评论 -
5_TensorRT实战-基本框架
上篇博文4_TensorRT概况主要讲了Nvida TensorRT的编程API,本篇主要通过一个简单、完整的例子来讲解如何将一个Caffe模型(GoogleNet模型)通过TensorRT进行推理加速。系统环境本示例运行的系统环境如下:硬件环境:Jetson TX2软件环境:JetPack:V4.2CUDA:CUDA ToolKit for L4T V10.0cuDNN:...原创 2019-04-24 10:52:48 · 2035 阅读 · 1 评论 -
MxNet与Caffe模型之间转换的桥梁-Onnx
MxNet模型导出ONNX模型Open Neural Network Exchange (ONNX)为AI模型提供了一种开源的数据模型格式。它定义了一个可扩展的计算图模型,以及内置运算符和标准数据类型的定义。它可以作为各种AI模型之间进行转换的媒介,例如,市面上没有现成的MxNet模型到Caffe模型的转换工具,我们可以借助于ONNX,首先将MxNet转换为Onnx,然后再将Onnx转换为Caf...原创 2019-05-29 16:00:23 · 3306 阅读 · 5 评论