如果在Docker容器中运行CodeProject.AI Server,并且想要使用自定义模型进行检测,本文将介绍如何采用自定义模型,并使用Docker Desktop启动具有自定义模型文件夹的 CodeProject.AI Server镜像。
首先,获取自定义模型。我决定使用最近在我们的文章如何训练自定义YOLOv5模型来检测对象中使用的这个critters模型。下载zip文件夹,解压缩文件 critter.pt,然后将此文件复制到目录C:\MyCustomModels中。快速说明:如果要自己使用此 critters.pt 模型,请确保运行的是CodeProject.AI Server 1.6.9及更高版本。
接下来,打开Docker桌面。我已经下载了CodeProject.AI服务器的镜像,所以如果你错过了这一步,请查看我的文章 如何在Docker中运行CodeProject.AI服务器。
转到“镜像”选项卡。代码项目/ai服务器镜像列在那里。单击“运行”按钮。
然后在“可选设置”下拉列表中,输入32168作为主机端口,然后在“数据卷”部分中,使用三点下拉列表选择C:\MyCustomModels文件夹,点击“选择文件夹”。然后在容器路径中,输入/app/AnalysisLayer/ObjectDetectionYolo/custom-models。点击运行。
返回到“容器”选项卡,然后单击32168:32168 以打开CodeProject.AI服务器。然后单击“打开CodeProject.AI资源管理器”。
从这里开始,critters模型现在在下拉列表中可见。让我们测试一下!
这个模型检测浣熊,所以我从维基百科下载了一张浣熊的图片。在“自定义对象检测”窗口中,点击浏览,选择浣熊图像,然后点击运行检测。
就是这样!自定义模型文件夹现在在CodeProject.AI Server容器中运行并正常工作。
或者,您可以从命令提示符执行所有这些操作。转到Windows开始按钮并键入CMD。启动命令提示符并键入:
docker run -p 32168:32168 --name CodeProject.AI-Server -d -v C:\ProgramData\CodeProject\AI:/usr/share/CodeProject/AI --mount type=bind,source=C:\MyCustomModels,target=/app/AnalysisLayer/ObjectDetectionYolo/custom-models,readonly codeproject/ai-server
https://www.codeproject.com/Articles/5348417/How-to-Use-a-Custom-Model-in-CodeProject-AI-Server