自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 CoCoOp - CLIP 自适应Prompt工程 【二】

CLIP多模态大模型 在 Prompt工程 的改进型工作: CoCoOp的原理 & 实现代码 & 优化方向 & 解决的问题

2024-02-16 12:01:01 1517 1

原创 CoOp - CLIP 自适应Prompt工程 【一】

CLIP多模态大模型 在 Prompt Engineering(提示工程)上的工作: CoOp 模型的原理 & 效果简介。 为何称之为自适应Prompt,以及他的瓶颈是什么

2024-02-12 17:05:18 1565 5

原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【三】

CLIP 的科普系列最后一期, 讲了 CLIp的 训练 & 效果 & 展望,以及相关的一些衍生和学术工作等。

2024-01-29 10:30:00 1315

原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【二】

由3.1 和 3.2 的 前置知识,我们便知道了 CLIP的文本塔模型 其实是由 Google 的两个经典开创性任务: Transformer 和 BERT 衍生出来的,那最后 文本塔的 RoBERTa 模型, 其实也就是由他们做了微小改变而成的。RoBerta ()又是 Bert的一个变体。在 模型整体架构没有改变的时候,做了一些相关的微调[1] 参数量扩大, BERT 使用解决 3.3亿 token, RoBerta 利用 16亿 token.

2024-01-02 10:00:00 1196

原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【一】

本文以分享&科普的 形势,分成三部分介绍 对比式多模态大模型CLIP的前世今生,基本概念,涉及到一些基础前置知识的科普[BERT & Transformer & VIT 等] ; 同时与 目前最火的 生成式大模型 [AIGC & LLM] 等相比, 在训练数据 & 语料来源 & 数据量 & 参数量之间的差异。 供大家欣赏。

2023-12-24 20:17:14 1277 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除