ChatGPT系列论文解读
文章平均质量分 85
ChatGPT系列论文解读,本专栏详细解读Chatgpt发展出来的每篇论文
只会git clone的程序员
博客资料链接失效或者文件找不到可以私信索要!
当前在探索的领域:机器瞎学 人工智障 模式混淆 数据掩埋 计算机幻觉 劝退系统
展开
-
mPLUG-Owl2: 7B的多模态大模型
可以看到去掉这个模块,语言模型在语言的benchmark上都出现了性能损失。但是这里我感觉是不是应该放出llama2 7B本身在这上面评价的指标一起对比看看呢?如果加上了MAM对比原来的性能还是损失了很多说明这个方法也不是最优解。作者实验了几个数据集,发现放开视觉训练带来涨点的还是比较多。原创 2024-01-16 15:18:00 · 708 阅读 · 0 评论 -
多模态大模型数据集
多模态数据集原创 2024-01-08 11:47:27 · 1595 阅读 · 2 评论 -
最新多模态大模型SOTA - EMU (Generative Multimodal Models are In-Context Learners)
最新多模态大模型SOTA - EMU (Generative Multimodal Models are In-Context Learners)原创 2023-12-27 18:01:38 · 1432 阅读 · 0 评论 -
LLaVa安装记录
llava安装记录原创 2023-08-31 11:37:18 · 3325 阅读 · 13 评论 -
Chatgpt论文笔记——MiNiGPT4解读
摘要写的就很简单了,标黄的是重点,可以看到这个方法很简单,就是拿了一个视觉的encoder(Blip-2)以及拿了一个文本的encoder(Vicuna),最后外加上一个projection层就构成了MiniGPT4,并且在训练的时候视觉和文本的encoder都是冻结参数的,所以相当于只是拿视觉和文本的编码器来用,训练只训外加的projection层。MiNiGPT4安装记录。原创 2023-05-15 17:57:47 · 1514 阅读 · 2 评论 -
MiNiGPT4安装记录
MiNiGPT运行记录原创 2023-04-26 14:39:42 · 1651 阅读 · 6 评论 -
Chatgpt论文笔记——GPT1详细解读与可运行的代码
GPT1: 提出了大规模数据上无监督预训练然后在目标任务上有监督finetune的范式。原创 2023-03-24 17:48:06 · 4922 阅读 · 5 评论