自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 p-tuning v2 微调 chatGLM实战

注意,这里要求 transformers==4.30.2 但这个版本无法识别qwen2 模型,如果确认是qwen1版本,则不需要进行下面的修改。训练的checkpoint,应该是 output_dir 路径下的 最后一个checkpoin-?或者把 requirements.txt 中的transformers版本改成这 4.37.0。safe_serialization 改成 False。

2024-08-02 16:38:33 482

原创 Qlora微调qwen模型

【代码】p-tuning v2 微调 chatGLM实战。

2024-08-02 16:34:00 337

原创 通过fine-tuning 微调LLM模型实现传统NLP任务

大模型+指令微调的组合终究与追求精度提升的文本理解类任务不太契合。在足量的标注数据场景下,精度上难以匹敌传统的BERT式微调方法。但是大模型毕竟在参数量和学习的知识信息量级上要远超过往的BERT簇模型,所以从理论上来看,只要能够充分利用大模型庞大的知识量,其在文本理解能力上必然是超越BERT簇模型的。指令微调+Prompt工程的大模型生成式方法在文本理解类任务上并没有充分利用到大模型的丰富知识,那么能否参考BERT式的微调方法,将大模型的参数权重作为基座,去针对性适配下游任务呢?

2024-08-01 10:55:31 1552

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除