![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CLIP相关
文章平均质量分 94
Herman伍
多模态,检索相关。就一码代码的,欢迎大家一起交楼
展开
-
CoCoOp - CLIP 自适应Prompt工程 【二】
CLIP多模态大模型 在 Prompt工程 的改进型工作: CoCoOp的原理 & 实现代码 & 优化方向 & 解决的问题原创 2024-02-16 12:01:01 · 1363 阅读 · 1 评论 -
【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【二】
由3.1 和 3.2 的 前置知识,我们便知道了 CLIP的文本塔模型 其实是由 Google 的两个经典开创性任务: Transformer 和 BERT 衍生出来的,那最后 文本塔的 RoBERTa 模型, 其实也就是由他们做了微小改变而成的。RoBerta ()又是 Bert的一个变体。在 模型整体架构没有改变的时候,做了一些相关的微调[1] 参数量扩大, BERT 使用解决 3.3亿 token, RoBerta 利用 16亿 token.原创 2024-01-02 10:00:00 · 1121 阅读 · 0 评论 -
CoOp - CLIP 自适应Prompt工程 【一】
CLIP多模态大模型 在 Prompt Engineering(提示工程)上的工作: CoOp 模型的原理 & 效果简介。 为何称之为自适应Prompt,以及他的瓶颈是什么原创 2024-02-12 17:05:18 · 1341 阅读 · 5 评论 -
【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【三】
CLIP 的科普系列最后一期, 讲了 CLIp的 训练 & 效果 & 展望,以及相关的一些衍生和学术工作等。原创 2024-01-29 10:30:00 · 1287 阅读 · 0 评论 -
【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【一】
本文以分享&科普的 形势,分成三部分介绍 对比式多模态大模型CLIP的前世今生,基本概念,涉及到一些基础前置知识的科普[BERT & Transformer & VIT 等] ; 同时与 目前最火的 生成式大模型 [AIGC & LLM] 等相比, 在训练数据 & 语料来源 & 数据量 & 参数量之间的差异。 供大家欣赏。原创 2023-12-24 20:17:14 · 1240 阅读 · 2 评论