个人笔记目录

目录

一、    lora 微调 alpaca 笔记

二、    全量微调 Llama2-7b笔记

三、    Huggingface trainer、model.from_pretrained、tokenizer()简单介绍(笔记)

四、    Huggingface 中 PreTrainedModel部分注释解析笔记(私人未排版)​​​​​​​​​​​​​​​​​​​​​

五、    vscode调试launch.json常用格式

六、    huggingface generate函数简介

七、    Trl SFT: llama2-7b-hf使用QLora 4bit量化后ds zero3加上flash atten v2单机多卡训练(笔记)

八、    Trl DPOTrainer笔记​​​​​​​​​​​​​​(私人未排版)

​​​​​​​九、    chatglm相关笔记(私人未排版)

十、    deepspeed chat相关笔记(私人未排版)

十一、Huggingface Llama2源码解析笔记(私人未排版)

十二、flash attention 参数笔记​​​​​​​

十三、llama3-8b-instruct-262k微调过程的问题(场景为llama论文审稿)笔记

十四、一些训练微调经验​​​​​​​记录(私人未排版)

十五、vllm generate推理与Huggingface generate推理对齐(长样本)笔记


一、    lora 微调 alpaca 笔记

微调alpaca-lora遇到的一些问题-CSDN博客文章浏览阅读297次,点赞2次,收藏5次。环境:系统:Ubuntupeft:0.9.0。https://blog.csdn.net/qq_16555103/article/details/136921779

二、    全量微调 Llama2-7b笔记

全量微调Llama2-7b遇到的错误(stanford_alpaca)_cannot import name 'openai_object' from 'openai-CSDN博客文章浏览阅读675次,点赞20次,收藏9次。模型:Llama-2-7b-chat-hf。openai的版本不对,更换版本。_cannot import name 'openai_object' from 'openaihttps://blog.csdn.net/qq_16555103/article/details/136998043

三、    Huggingface trainer、model.from_pretrained、tokenizer()简单介绍(笔记)

Huggingface trainer、model.from_pretrained、tokenizer()简单介绍(笔记)_trainer.place_model_on_device-CSDN博客文章浏览阅读547次,点赞4次,收藏8次。总的来说,这个函数负责完成训练前的所有准备工作,包括加载检查点、设置超参数搜索、配置训练环境等,最终调用内部训练循环执行实际的训练过程。它提供了一些可配置选项,如从检查点恢复训练、超参数搜索和忽略评估时的某些键等,以满足不同的训练需求。类的主要训练入口点。它负责设置训练环境、加载模型检查点、配置超参数搜索、寻找可执行的批次大小,并最终执行内部训练循环。函数是 Hugging Face Transformers 库中。_trainer.place_model_on_devicehttps://blog.csdn.net/qq_16555103/article/details/137210875?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22137210875%22%2C%22source%22%3A%22qq_16555103%22%7D

四、    Huggingface 中 PreTrainedModel部分注释解析笔记(私人未排版)​​​​​​​​​​​​​​​​​​​​​

Huggingface 中 PreTrainedModel部分注释解析(笔记)-CSDN博客目录一、Huggingface 官方中文文档 二、https://huggingface.co/docs/transformers/v4.39.3/zh/main_classes/modelhttps://huggingface.co/docs/transformers/v4.39.3/zh/main_classes/modelhttps://blog.csdn.net/qq_16555103/article/details/137919947?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22137919947%22%2C%22source%22%3A%22qq_16555103%22%7D

五、    vscode调试launch.json常用格式

vscode调试launch.json常用格式_vscode launch.json env-CSDN博客文章浏览阅读390次,点赞7次,收藏5次。命令行deepspeed 进行执行,构建launch.json 思路。进行执行,构建launch.json 思路。与调试单个文件同理,只是重复。_vscode launch.json envhttps://blog.csdn.net/qq_16555103/article/details/136938822

六、    huggingface generate函数简介

​​​​​​​​​​​​​​huggingface generate函数简介_model.generate参数-CSDN博客文章浏览阅读867次,点赞19次,收藏23次。函数的一些重要参数,它们控制了生成过程的各个方面,如起始输入、序列长度、解码策略、采样行为等。根据具体任务和需求,适当调整这些参数可以获得更好的生成效果。函数是用于生成文本序列的核心函数。它通常应用于自然语言生成任务,如机器翻译、文本摘要、对话系统等。其他参数可以使用默认值,除非你有特殊的需求。合理设置这些参数对于获得良好的生成效果非常重要。在 Hugging Face Transformers 库中,通常,你只需要根据任务需求设置。和生成策略相关参数(_model.generate参数https://blog.csdn.net/qq_16555103/article/details/136805147

七、    Trl SFT: llama2-7b-hf使用QLora 4bit量化后ds zero3加上flash atten v2单机多卡训练(笔记)

Trl SFT: llama2-7b-hf使用QLora 4bit量化后ds zero3加上flash atten v2单机多卡训练(笔记)文章浏览阅读688次,点赞16次,收藏23次。第三 参考官方命令: https://github.com/Dao-AILab/flash-attention。第一 确保 linux "外界"的 cuda版本 与 conda 虚拟环境中cuda版本一致。第二 安装好 c++ g++ ninja。https://blog.csdn.net/qq_16555103/article/details/137677561

八、    Trl DPOTrainer笔记​​​​​​​​​​​​​​(私人未排版)

Trl中DPOTrainer注释解析(待完成)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/137743362?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22137743362%22%2C%22source%22%3A%22qq_16555103%22%7D

​​​​​​​九、    chatglm相关笔记(私人未排版)

chatglm2-3微调 个人笔记(待完成)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/137397575

十、    deepspeed chat相关笔记(私人未排版)

deepspeed chat RLHF 个人笔记(待完成)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/137050366

十一、Huggingface Llama2源码解析笔记(私人未排版)

Huggingface Llama2源码解析(待完成)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/138165937?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22138165937%22%2C%22source%22%3A%22qq_16555103%22%7D

十二、flash attention 参数笔记​​​​​​​

flash attention 参数icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/138287633?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22138287633%22%2C%22source%22%3A%22qq_16555103%22%7D

十三、llama3-8b-instruct-262k微调过程的问题(场景为llama论文审稿)笔记

llama3-8b-instruct-262k微调过程的问题笔记(场景为llama论文审稿)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/139200065?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22139200065%22%2C%22source%22%3A%22qq_16555103%22%7D

十四、一些训练微调经验​​​​​​​记录(私人未排版)

一些微调的经验(笔记)icon-default.png?t=N7T8https://blog.csdn.net/qq_16555103/article/details/139325339?spm=1001.2014.3001.5502

十五、vllm generate推理与Huggingface generate推理对齐(长样本)笔记

vllm generate推理与Huggingface generate推理对齐(长样本)-CSDN博客一、https://blog.csdn.net/qq_16555103/article/details/139927787?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22139927787%22%2C%22source%22%3A%22qq_16555103%22%7D

  • 18
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值