自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 实习期间问题汇总(6.27):

2.登录zhipuAI官网,申请一个个人API_KEY3.将个人API_KEY输入即可。

2024-06-27 18:41:59 384

原创 实验问题汇总

BN层在CNN网络中大量使用,但是BN依赖于均值和方差,如果batch_size太小,计算一个小batch_size的均值和方差,肯定没有计算大的batch_size的均值和方差稳定和有意义,这个时候,还不如不使用bn层,因此可以将bn层冻结。如果是4块到2块:就把map_location改为:map_location={‘cuda:1’: ‘cuda:0’}参数: a:输入矩阵, repeats:每个元素重复的次数, axis:需要重复的维度。解决方式:从gitee网站使用镜像网址代替即可解决。

2024-02-28 18:12:37 676

原创 论文阅读总结——MoCo v1

字典中key的个数也就是负样本的个数,如果选取所有负样本,比如1M,这样无法计算,NCE loss也并没有降低计算复杂度,因此moco v1在所有负样本中随机抽样65536个负样本,当作字典的大小。因为当前负样本的特征是是用当前编码器得到的,一旦模型更新,队列中移出一个batch的负样本,移进一个batch的负样本,这个负样本的特征是用新的编码器得到的,不仅与其他负样本不一致,而且与当前正样本。补充:为方便理解,图中每个格子中写的是B,其实应该是Key,也就是负样本的特征,一个128维的向量。

2023-10-25 14:55:03 86 1

原创 论文阅读总结——groupvit

CLIP作为分类领域的多模态开山之作,研究思想主要是引入了文本-图片对作为数据,使得模型在分类时有了对文字语义信息的理解,鉴于clip训练好的文本编码器和图片编码器都有非常好的zero-shot性能,由此引出了后续的很多工作,但就目前来看,工作重点都在模型的zero-shot能力,而不是下游任务中具体的指标比如精度等。

2023-10-08 23:22:37 107 1

原创 关于instruct GPT和llama2中强化学习的笔记

损失函数如下:初始奖励模型为6B的一个语言模型修改掉最后一层的输出头,由概率输出改为标量分数,输入是人类对于k个答案的排序。损失函数采用logistic loss,以达到最大化奖励分数的目的。奖励模型的作用是,拥有对模型输出结果的排序能力(模拟人类的偏好),用于后续强化学习的训练。

2023-09-08 15:32:49 553 1

原创 LLaMA2模型

*字面翻译:**RLHF (Reinforcement Learning from Human Feedback) ,即以强化学习方式依据人类反馈优化语言模型。RLHF的过程可以分为几个步骤:1.初始模型训练:一开始,AI模型使用监督学习进行训练,人类训练者提供正确行为的标记示例。模型学习根据给定的输入预测正确的动作或输出。2.收集人类反馈:在初始模型被训练之后,人类训练者提供对模型表现的反馈。他们根据质量或正确性排名不同的模型生成的输出或行为。这些反馈被用来创建强化学习的奖励信号。

2023-08-11 13:53:57 874 1

原创 实习期间解决的问题汇总

deb和.rpm都是常见的 Linux 软件包格式,用于在不同的 Linux 发行版中安装和管理软件。这两种格式分别由 Debian 和 Red Hat 发行版的包管理系统使用。.deb软件包格式是由发行版及其衍生发行版(例如)使用的。它通常包含了一个应用程序、库、文档等在系统上的安装所需的文件。在使用.deb软件包格式则是由 Red Hat 发行版及其衍生发行版(如)使用的。在使用.rpm总结:两者对应的操作系统不同,在使用连接进行相关包下载时要注意。

2023-08-09 18:20:08 49 1

原创 实习日志8.4——LLaMA结构

在自然语言处理(NLP)中,Tokenizer(分词器)用来将文本转换成标记(token)序列,将连续的文本切分成单独的语义单元,如单词、子词或字符。Tokenizer 是 NLP 预处理的重要步骤之一,它为文本数据创建了可供模型处理的输入形式。网上代码非常多,这里不做赘述。

2023-08-04 15:16:53 145 1

原创 实习日志8.2——transformer结构理解

相对位置是指序列中不同元素之间的相对距离或位置关系。例如,在一个句子中,一个单词相对于另一个单词的位置可以用距离来表示,例如距离为1表示紧邻相邻,距离为2表示间隔一个单词,依此类推。在自然语言处理(NLP)中,绝对位置(Absolute Position)和相对位置(Relative Position)通常用来描述序列中不同元素之间的位置关系。因此,每个q向量都会对应一个v向量,同时,不同的评分函数对于注意力权重有不同的影响。绝对位置是指序列中每个元素的具体位置,通常通过元素在序列中的索引或位置来表示。

2023-08-04 10:47:49 89 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除