文献阅读
文章平均质量分 88
文献阅读
idiotyi
这个作者很懒,什么都没留下…
展开
-
【文献阅读】Transfer Learning For Text Classification Via Model Risk Analysis
本文是以文本分类的迁移学习任务为例,对风险分析模型的整体框架流程做梳理。原创 2024-10-07 23:19:18 · 714 阅读 · 0 评论 -
【文献阅读】AdaLora: Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
矩阵分解为什么可以加速推理假设原始权重矩阵W∈Rm∗nW∈Rm∗n,矩阵乘法中时间复杂度为mn,变形为WBAB∈Rm∗rA∈Rr∗nWBAB∈Rm∗rA∈Rr∗n,则时间复杂度变为mr+r*n。原创 2024-09-05 18:40:03 · 1005 阅读 · 0 评论 -
【文献阅读】VAE:Variational Autoencoder
生成模型。原创 2024-09-04 16:48:11 · 572 阅读 · 0 评论 -
【大模型】Reflextion解读
一种大模型强化学习技术,将传统的梯度更新时的参数信号替换成上下文的语言总结,过程和人类反思相似。区别与RLHF,Reflextion是agent自我反思,RLHF是人类反馈。原创 2024-08-31 17:24:19 · 619 阅读 · 0 评论 -
【大模型】GPT系列模型基础
GPT整体上与transformer结构相似,但只用了decoder部分。原创 2024-08-29 20:00:37 · 1159 阅读 · 1 评论 -
【大模型】chatglm系列模型基础
2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测2,GLM-130B 是亚洲唯一入选的大模型。GLM-130B 在准确性和恶意性指标上与 GPT-3 175B持平。chatglm1,2,3代在模型架构上基本一样,本文主要讲解模型结构。原创 2024-08-29 14:44:12 · 1003 阅读 · 0 评论 -
【大模型】llama系列模型基础
llama基于transformer架构,与GPT相似,只用了transformer的解码器部分。本文主要是关于llama,llama2和llama3的结构解读。原创 2024-08-28 22:18:28 · 1561 阅读 · 1 评论 -
【文献阅读】LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS
adapter-based的方法通常是利用一个MLP或者一个prefix-based方法,导致模型不允许长序列的输入。不同于adapter-based的方法,LORA是针对原始模型训练的。LORA微调时,我们可以通过设置r来达到恢复全量微调的效果。因为LORA在适应过程中不要求对权重矩阵的累积梯度更新具有完整的秩。这个缩放可以减小当r改变时,我们重新微调参数的需要。对于不同的下游任务,只用计算BA和其变化量的差值就可以了。对于A采用一个随机的高斯初始化,对于B采用0初始化。原创 2024-06-07 10:27:59 · 912 阅读 · 0 评论