export模式用于将YOLOv8
模型导出为可用于部署的格式。在此模式下,模型转换为可供其他软件应用程序或硬件设备使用的格式。此模式在将模型部署到生产环境时很有用。
model = YOLO('yolov8n.pt')
model = YOLO('path/to/best.pt')
# 导出模型
model.export(format='onnx')
YOLOv8模型的导出设置是指用于保存或导出模型以在其他环境或平台中使用的各种配置和选项。这些设置会影响模型的性能、大小以及与不同系统的兼容性。一些常见导出设置包括导出模型文件的格式(例如ONNX、TensorFlow SavedModel)、模型将在其上运行的设备(例如CPU、GPU)以及每个框存在掩码或多个标签等附加功能。其他可能影响导出过程的因素包括模型正在用于的特定任务以及目标环境或平台的要求或约束。仔细考虑和配置这些设置以确保导出的模型针对预期用例进行了优化并可以在目标环境中有效使用,这一点很重要。
相关参数如下:
Key | Value | Description |
---|---|---|
format | 'torchscript' | format to export to |
imgsz | 640 | image size as scalar or (h, w) list, i.e. (640, 480) |
keras | False | use Keras for TF SavedModel export |
optimize | False | TorchScript: optimize for mobile |
half | False | FP16 quantization |
int8 | False | INT8 quantization |
dynamic | False | ONNX/TF/TensorRT: dynamic axes |
simplify | False | ONNX: simplify model |
opset | None | ONNX: opset version (optional, defaults to latest) |
workspace | 4 | TensorRT: workspace size (GB) |
nms | False | CoreML: add NMS |
支持的导出格式如下:
Format | format Argument | Model | Metadata |
---|---|---|---|
PyTorch | - | yolov8n.pt | ✅ |
TorchScript | torchscript | yolov8n.torchscript | ✅ |
ONNX | onnx | yolov8n.onnx | ✅ |
OpenVINO | openvino | yolov8n_openvino_model/ | ✅ |
TensorRT | engine | yolov8n.engine | ✅ |
CoreML | coreml | yolov8n.mlmodel | ✅ |
TF SavedModel | saved_model | yolov8n_saved_model/ | ✅ |
TF GraphDef | pb | yolov8n.pb | ❌ |
TF Lite | tflite | yolov8n.tflite | ✅ |
TF Edge TPU | edgetpu | yolov8n_edgetpu.tflite | ✅ |
TF.js | tfjs | yolov8n_web_model/ | ✅ |
PaddlePaddle | paddle | yolov8n_paddle_model/ | ✅ |