自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 一般人自学大模型,我劝你还是算了吧!

对于普通人来说,学习大模型并找到相关工作需要系统的学习和实践。以下是一个详细的攻略:基础知识学习:学习编程基础,尤其是Python,因为它是深度学习和NLP的主要编程语言。学习数学基础,包括线性代数、概率论和统计学、微积分等。深度学习和NLP入门:学习深度学习的基本概念,如神经网络、卷积神经网络(CNN)、循环神经网络(RNN)等。学习NLP的基础知识,包括词向量、序列标注、命名实体识别、情感分析等。学习大模型架构:学习大模型的基本架构,如Transformer、BERT等。

2024-08-01 17:41:51 198

原创 人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法

SFT监督微调时监督微调时,学习率通常会设置得很小常见误区:1.监督微调需要大量的训练时间和数据 2.监督微调将复制源模型的所有参数至目标模型 3.监督微调只需要几十条监督数据即可监督微调常见任务:1.用中文预训练BERT模型完成中文实体识别任务 2.训练语言模型GPT3 3.UIE模型在垂直领域的数据集上微调常见误区:在ImageNet上的预训练的模型再来训练目标检测任务 (则不是)目前,主流的SFT监督方法包括:LoRA、P-tuning v2、Freeze。

2024-08-01 17:39:52 406

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除