概要(www.nb-ai.com)
接上回,在私有云平台上训练完成的模型,需要导出以便在部署端运行使用。平台支持导出用于CPU运行的模型,以及用于英伟达GPU运行的模型。
当选择CPU模型时,导出的模型文件可以直接用于CPU运行;
当选择GPU模型时,由于GPU模型是与GPU配置相关的,所以需要在目标电脑(或者与目标电脑相同GPU算力的电脑)上,完成模型的转换。
例如,计划将GPU模型在配置NVIDIA RTX 3060显卡的工控机上运行,则需要在同样配置RTX 3060、或者相同算力GPU(比如RTX 3080,与3060的算力都是8.6)的电脑上生成转换后的模型。
关于显卡算力值,请参考英伟达官方网站
步骤一:导出模型
1、在模型的“下载”页面,根据运行模型的硬件平台,选择模型。然后点击“导出模型”开始导出。
2、导出的文件为onnx.zip的压缩文件,将其解压至文件夹。文件夹内应该有如下文件:
步骤二:转换GPU模型
注意:当选择导出GPU模型,才需要进行模型转换。
1、点击这里,下载模型转换工具。
下载export_invoker.zip完成后,解压缩软件包。
2、双击 export_invoker.exe 程序,选择解压后的模型文件夹,点击“导出”。
导出预计5分钟左右。
注意:选择的上述解压后的模型文件夹,而非单个文件;文件夹内不要再嵌套层级。
模型转换工具仅限在Windows10/11平台上运行。
导出完成后,会在同文件夹下,新增名为end2end.engine的文件。
该文件夹即为转化后的GPU模型,即可用于GPU的模型运行(整体完整文件夹)。
关于模型的部署使用,请参考SDK部署