CLIP-as-service 是一种用于编码图像和文本的低延迟、高可扩展性服务。它可以作为微服务轻松集成到神经搜索解决方案中。
💡 CLIP-as-service 0.8.0 现已正式发布!
本次更新包含 3 个新增功能、1 个性能改进、1 个文档改进。
🆕 新功能
新增支持大型 ONNX 模型文件 (#828)
单个 ONNX 模型文件有2GB大小的限制,更大的 ONNX 模型将被拆分成许多的文件碎片保存。此版本支持导入包含大型 ONNX 模型碎片的文件夹压缩成的 zip 格式文件。我们现在可以提供所有 CLIP 模型在 ONNX 运行时的服务。
新增支持在 laion-2b 上训练的 ViT-B-32、ViT-L-14、ViT-H-14 和 ViT-g-14 的模型 (#825)
用户现在可以使用在 Laion-2B 数据集上训练的 OpenCLIP 提供的四个新 CLIP 模型:
-
ViT-B-32::laion2b-s34b-b79k
-
ViT-L-14::laion2b-s32b-b82k
-
ViT-H-14::laion2b-s32b-b79k
-
ViT-g-14::laion2b-s12b-b42k
ViT-H-14 模型在 ImageNet 上实现了 78.0% 的零样本 top-1 准确率,在 MS COCO 上的 Recall@5 上实现了