目录
三、 Huggingface trainer、model.from_pretrained、tokenizer()简单介绍(笔记)
四、 Huggingface 中 PreTrainedModel部分注释解析笔记(私人未排版)
七、 Trl SFT: llama2-7b-hf使用QLora 4bit量化后ds zero3加上flash atten v2单机多卡训练(笔记)
十一、Huggingface Llama2源码解析笔记(私人未排版)
十二、flash attention 参数笔记
十三、llama3-8b-instruct-262k微调过程的问题(场景为llama论文审稿)笔记
十五、vllm generate推理与Huggingface generate推理对齐(长样本)笔记
一、 lora 微调 alpaca 笔记
二、 全量微调 Llama2-7b笔记
三、 Huggingface trainer、model.from_pretrained、tokenizer()简单介绍(笔记)
四、 Huggingface 中 PreTrainedModel部分注释解析笔记(私人未排版)
五、 vscode调试launch.json常用格式
六、 huggingface generate函数简介
七、 Trl SFT: llama2-7b-hf使用QLora 4bit量化后ds zero3加上flash atten v2单机多卡训练(笔记)
八、 Trl DPOTrainer笔记(私人未排版)
九、 chatglm相关笔记(私人未排版)
chatglm2-3微调 个人笔记(待完成)https://blog.csdn.net/qq_16555103/article/details/137397575
十、 deepspeed chat相关笔记(私人未排版)
deepspeed chat RLHF 个人笔记(待完成)https://blog.csdn.net/qq_16555103/article/details/137050366
十一、Huggingface Llama2源码解析笔记(私人未排版)
十二、flash attention 参数笔记
十三、llama3-8b-instruct-262k微调过程的问题(场景为llama论文审稿)笔记
十四、一些训练微调经验记录(私人未排版)
一些微调的经验(笔记)https://blog.csdn.net/qq_16555103/article/details/139325339?spm=1001.2014.3001.5502