VLP
文章平均质量分 90
羊飘
要么独处,要么庸俗
展开
-
ICCV2023 | MCD: Misalign, Contrast then Distill:重新思考VLP中的错位
ICCV2023 | Misalign, Contrast then Distill:重新思考VLP中的错位论文标题: Misalign, Contrast then Distill: Rethinking Misalignments in Language-Image Pretraining原创 2024-01-21 15:36:12 · 981 阅读 · 0 评论 -
ICCV2023 | PTUnifier+:通过Soft Prompts(软提示)统一医学视觉语言预训练
ICCV2023 | PTUnifier:通过Soft Prompts(软提示)统一医学视觉语言预训练论文标题:Towards Unifying Medical Vision-and-Language Pre-training via Soft PromptsFusion-encoder type和Dual-encoder type。原创 2024-01-18 16:55:23 · 1465 阅读 · 0 评论 -
ICCV2023 | VL-Match: 使用Token-Level和Instance-Level Matching提升视觉语言预训练
ICCV2023 | VL-Match: 使用Token-Level和Instance-Level Matching提升视觉语言预训练。论文标题:VL-Match: Enhancing Vision-Language Pretraining with Token-Level and Instance-Level Matching代码:None单位:中国科学院北京计算技术研究所 中国科学院大学 微软原创 2024-01-16 17:05:23 · 996 阅读 · 0 评论 -
CVPR2021 | ABINet+: 似人阅读: 场景文本识别的自主、双向和迭代语言建模
CVPR2021 | ABINet+: 似人阅读: 场景文本识别的自主、双向和迭代语言建模原创 2023-02-23 20:40:01 · 2533 阅读 · 3 评论 -
arXiv2022-12 | FLIP:Scaling Language-Image Pre-training via Masking
arXiv2022-12 | FLIP:Scaling Language-Image Pre-training via Masking即使使用高端的基础设施,wall-clock training time仍然是阻碍视觉语言学习规模化探索的主要瓶颈。原创 2022-12-05 13:14:27 · 855 阅读 · 0 评论 -
arXiv2022.10 | EfficientVLM: 基于Knowledge Distillation and Modal-adaptive Pruning的快、准VLP model
arXiv | EfficientVLM: Fast and Accurate VLM via Knowledge Distillation and Modal-adaptive Pruning原创 2022-10-17 21:37:58 · 787 阅读 · 0 评论