CLIP(Contrastive Language-Image Pre-training)是一种多模态预训练神经网络模型,由OpenAI在2021年初发布469。CLIP的核心创新在于其能够将图像和文本映射到一个共享的向量空间中,使得模型能够理解图像和文本之间的语义关系1。CLIP模型的架构非常简洁,但在zero-shot文本-图像检索、zero-shot图像分类、文本到图像生成任务的指导、开放域检测分割等任务上表现出色1。
CLIP模型的创新点主要包括以下几个方面1:
-
统一的向量空间:CLIP的关键创新之一是将图像和文本都映射到同一个向量空间中,这使得模型能够直接在向量空间中计算图像和文本之间的相似性,而无需额外的中间表示。
-
对比学习:CLIP使用