从零指令微调一个大模型:从数据清洗到模型训练实操(附代码和测试脚本)_大模型训练脚本

从零指令微调一个大模型:从数据清洗到模型训练实操(附代码和测试脚本)

本教程主要实现了一个大模型的指令遵从微调方法。为了便于实现,减少代码量,本文使用了🤗HuggingFaceTRL框架实现。该框架除了支持SFT外,对DPO、PPO、GRPO等流行的强化微调算法都有很好的支持。

img

在模型层,我们选择了GLM4作为基座模型。注意:由于ChatGLM的模型相对较大,实际运行大概需要显存>=16G

🎉 另外,分享给大家一个好消息,SwanLab被官方集成进入了🤗HuggingFace Transformers: 如果本地环境安装了SwanLab会默认开启!也可以通过report_to="swanlab"开启训练跟踪。

img

参考资料:

◾ 智谱AI官网:

https://www.zhipuai.cn/

◾ ChatGLM-9B基座模型:

https://huggingface.co/THUDM/glm-4-9b-hf

◾ ChatGLM-9B-Chat模型:

https://huggingface.co/THUDM/glm-4-9b-chat-hf

◾ Alpaca数据集中文版:

https://huggingface.co/datasets/llamafactory/alpaca_gpt4_zh

◾ 本博客开源项目链接:

https://github.com/SwanHubX/glm4-finetune

◾ SwanLab训练日志查看:

https://swanlab.cn/@ShaohonChen/chatglm-finetune

TRL包介绍+环境准备

img

本教程使用🤗HuggingFace TRL框架来完成微调代码的实现。TRL是一个强大且便于使用的微调框架,除了支持SFT外,也能轻松的通过接口调用DPO、PPO、GRPO等流行的强化微调算法。此外也完美兼容Transformers架构。

首先是安装本教程的环境,安装命令如下:

pip install transformers trl datasets peft swanlab

其中transformers trl peft用于模型的加载和训练,datasets用于导入数据集,swanlab用于对训练过程可视化跟踪。

下面列举一个简单的微调案例来介绍HF TRL框架的使用方法:

from datasets import load_datasetfrom trl import SFTConfig, SFTTrainer
dataset = load_dataset("stanfordnlp/imdb", split="train")   # 设置微调数据集,此处使用IMDB电影评论分类数据
training_args = SFTConfig(  # 设置微调参数    max_length=512,    output_dir="/tmp",)trainer = SFTTrainer(   # 设置模型,此处使用facebook的opt-350M,参数量比较小便于下载    "facebook/opt-350m",    train_dataset=dataset,    args=training_args,)trainer.train() # 开始训练,流程和TRL一样

上面的代码来自HF官方文档https://huggingface.co/docs/trl/sft_trainer,增加了注释便于读者理解。

简单来说TRL包的使用方法和Transformers类似,不过多了两步:

◾ 导入SFTConfig模块,这个模块基于transformers的TrainingArguments,不过针对SFT引入了一点额外的参数,以及lora的支持参数

◾ 导入SFTTrainer模块,这个模块包含了SFT的代码实现,还有一些对peft的lora支持和数据集格式转换代码。

后文将完整的介绍如何使用TRL包完成大模型的指令遵从功能。

GLM4介绍+模型准备

img

GLM-4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本。ChatGLM发布了多个版本,其中GLM-4-9B是第四代基座模型,其微调版本GLM-4-9B-Chat具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。

本教程使用GLM-4-9B模型进行指令遵从功能微调,并使用SwanLab进行模型的结果跟踪。

⚠️注意:ChatGLM为了配合Huggingface Transformers更新,发布了两个版本权重THUDM/glm-4-9b和THUDM/glm-4-9b-hf,后者对应更为新版本的transformers,因此本教程使用后者的权重。

本教程已经提供好了下载模型的脚本,下载模型的方法如下:

huggingface-cli download --local-dir ./weights/glm-4-9b-hf THUDM/glm-4-9b-hf

模型将会下载在项目目录下的./weights/glm-4-9b-hf中

下面列举一个使用transformers加载ChatGLM模型并进行推理的代码:

from transformers import AutoTokenizer, AutoModelForCausalLMdevice = "cuda"tokenizer = AutoTokenizer.from_pretrained("THUDM/glm-4-9b-chat-hf")model = AutoModelForCausalLM.from_pretrained("THUDM/glm-4-9b-chat-hf").eval().to(device)inputs = tokenizer.encode("我是ChatGLM,是", return_tensors="pt").to(device)outputs = model.generate(inputs)print(tokenizer.decode(outputs[0]))

由于是基座模型,没经过微调,因此模型只会完成"我是ChatGLM,是"这段文本的后续补全,运行后会生成如下代码:

Loading checkpoint shards: 100%|██████████| 4/4 [00:01<00:00,  2.35it/s][gMASK]<sop>我是ChatGLM,是人工智能助手。我是ChatGLM,是人工智能助手。我是ChatGLM,是人工智能助手

当然上面的例子是一个基座模型推理的例子,该模型只能进行文本生成,如果希望使用对话能力,还是需要加载已经微调好的对话模型,代码如下:

from transformers import pipeline
messages = [    {"role": "user", "content": "你是谁"},]pipe = pipeline("text-generation", model="THUDM/glm-4-9b-chat-hf")print(pipe(messages))

此处我们换了种推理接口,直接使用pipeline完成推理,运行后将会生成如下信息:

Loading checkpoint shards: 100%|██████████| 4/4 [00:01<00:00,  2.24it/s]Device set to use cuda:0[{'generated_text': [{'role': 'user', 'content': '你是谁'}, {'role': 'assistant', 'content': '\n我是一个人工智能助手,名为 ChatGLM。我是基于清华大学 KEG 实验室和'}]}]

使用print(model)将模型的结构打印出来,展示如下:

GlmForCausalLM(  (model): GlmModel(    (embed_tokens): Embedding(151552, 4096, padding_idx=151329)    (layers): ModuleList(      (0-39): 40 x GlmDecoderLayer(        (self_attn): GlmAttention(          (q_proj): Linear(in_features=4096, out_features=4096, bias=True)          (k_proj): Linear(in_features=4096, out_features=256, bias=True)          (v_proj): Linear(in_features=4096, out_features=256, bias=True)          (o_proj): Linear(in_features=4096, out_features=4096, bias=False)        )        (mlp): GlmMLP(          (gate_up_proj): Linear(in_features=4096, out_features=27392, bias=False)          (down_proj): Linear(in_features=13696, out_features=4096, bias=False)          (activation_fn): SiLU()        )        (input_layernorm): GlmRMSNorm((4096,), eps=1.5625e-07)        (post_attention_layernorm): GlmRMSNorm((4096,), eps=1.5625e-07)      )    )    (norm): GlmRMSNorm((4096,), eps=1.5625e-07)    (rotary_emb): GlmRotaryEmbedding()  )  (lm_head): Linear(in_features=4096, out_features=151552, bias=False))

可以看到GLM模型的层数达到了惊人的40层😂,因此本身使用Lora进行微调时其可训练参数会比其他模型大一些。

数据集准备

数据集我已经提前包括在了github项目当中,可以直接使用如下命令下载完整的实验代码

git clone https://github.com/SwanHubX/glm4-finetune.git

如果只想下载数据集,可以直接下载如下文件:

wget https://github.com/SwanHubX/glm4-finetune/blob/main/data/alpaca_gpt4_data_zh.json

也可以通过🤗huggingface上下载:https://huggingface.co/datasets/llamafactory/alpaca_gpt4_zh

代码说明+超参数调整

完整的微调代码公开在了GitHub上,使用如下命令即可下载

git clone https://github.com/SwanHubX/glm4-finetune.git

文章的附件中也有完整的实现代码#代码附件

本文接下来重点介绍各个代码的功能模块

加载模型的超参数设置,这里可以重点关注lora参数的设置,本文lora参数参考了ChatGLM官方微调代码的lora参数设置

这里要注意学习率为5e-4,如果是全量微调要小一个数量级。

################# Model kwargs################@dataclassclass ChatGLM4ModelConfig(ModelConfig):    model_name_or_path: Optional[str] = field(        default="./weights/glm-4-9b-hf",        metadata={            "help": "Model checkpoint for weights initialization. default used glm4"        },    )    torch_dtype: Optional[str] = field(        default="bfloat16",        metadata={            "help": "Override the default `torch.dtype` and load the model under this dtype.",            "choices": ["auto", "bfloat16", "float16", "float32"],        },    )    use_peft: bool = field(        default=True,        metadata={"help": "Whether to use PEFT for training. Default true"},    )    lora_r: int = field(        default=8,        metadata={"help": "LoRA R value."},    )    lora_alpha: int = field(        default=32,        metadata={"help": "LoRA alpha."},    )    lora_dropout: float = field(        default=0.1,        metadata={"help": "LoRA dropout."},    )    lora_target_modules: Optional[list[str]] = field(        default_factory=lambda: ["q_proj", "k_proj", "v_proj"],        metadata={"help": "LoRA target modules."},    )

数据集超参数设置,这里比较简单,只是加载了本地的数据集

################# Datasets kwargs################@dataclassclass DataTrainingArguments:    data_files: Optional[str] = field(        default="./data/alpaca_gpt4_data_zh.json.json",        metadata={"help": "The name of the dataset to use (via the datasets library)."},    )

不过为了方便读者理解数据集长什么样,仍旧提供数据集展示脚本

import datasetsraw_dataset=datasets.load_dataset("json", data_files="data/glaive_toolcall_zh_1k.json")print(raw_dataset)"""打印内容DatasetDict({    train: Dataset({        features: ['instruction', 'input', 'output'],        num_rows: 42677    })})"""

可以看到数据一共有1000条,并且包括’conversations’, 'tools’两个字段

进一步选取其中一条打印:

print(raw_dataset["train"][0])

输出如下:

{    "instruction": "保持健康的三个提示。",    "input": "",    "output": "以下是保持健康的三个提示:\n\n1. 保持身体活动。每天做适当的身体运动,如散步、跑步或游泳,能促进心血管健康,增强肌肉力量,并有助于减少体重。\n\n2. 均衡饮食。每天食用新鲜的蔬菜、水果、全谷物和脂肪含量低的蛋白质食物,避免高糖、高脂肪和加工食品,以保持健康的饮食习惯。\n\n3. 睡眠充足。睡眠对人体健康至关重要,成年人每天应保证 7-8 小时的睡眠。良好的睡眠有助于减轻压力,促进身体恢复,并提高注意力和记忆力。"}

这里大家会注意到为什么会有Instruct和input两部分。实际上早期针对指令遵从的研究是为了获得一个通用的任务处理模型(比如既能做翻译又能做计算这样),因此我们通常把对任务的描述放到instruct中,将实际的任务文本放在input中。 但是随着ChatGPT这种通用的AI助理出现,大家已经逐渐习惯直接下指令让其执行了。因此instruct和prompt的这种分离就显得没那么有必要了。实际上无论分离和不分离模型的本质都是根据前文补后文。因此分离不分离对模型的最终结果不会有太大影响,无非就是格式的不同。 现在的开源Chat大语言模型流行把“人设”放在“system prompt”中,把用户的指令放在input中,因此后文我们会将Alpaca数据集处理成更适应于主流Chat的格式。

ChatGLM提供的推荐输入微调数据结构如下:

{  "messages": [    {      "role": "user",      "content": "类型#裤*材质#牛仔布*风格#性感"    },    {      "role": "assistant",      "content": "3x1的这款牛仔裤采用浅白的牛仔面料为裤身材质,其柔然的手感和细腻的质地,在穿着舒适的同时,透露着清纯甜美的个性气质。除此之外,流畅的裤身剪裁将性感的腿部曲线彰显的淋漓尽致,不失为一款随性出街的必备单品。"    }  ]}

这里可能有一定经验的读者会说,不对呀,我们从0训练我们当然可以定义自己的数据结构。这么想是对的,但是让我们能够直接使用ChatGLM原生的chat_template,我还是建议咱们遵守chatglm官方定义的数据格式,这么做的话既能兼容ChatGLM的很多工具,又能充分利用官方定义的special_token。

我们可以通过HuggingFace上开源的glm-4-9b-chat-hf的tokenizer_config.json中可以找到他们的原生chat_template,下面的脚本提供一个打印chat_template的代码

from transformers import AutoTokenizer, AutoModelForCausalLMdevice = "cuda"tokenizer = AutoTokenizer.from_pretrained("THUDM/glm-4-9b-chat-hf")print(tokenizer.chat_template)

获取tokenizer配置的链接https://huggingface.co/THUDM/glm-4-9b-chat-hf/blob/main/tokenizer_config.json

这里我们简单打印一下转换完成后数据集最终的一个效果,参考脚本如下:

def formatting_func(example):    """    process data format    """    prompt = example["instruction"]    if len(example["input"]) != 0:        prompt += "\n\n" + example["input"]    conversations = [        {"role": "user", "content": prompt},        {"role": "assistant", "content": example["output"]},    ]    output_text = tokenizer.apply_chat_template(        conversation=conversations, tokenize=False    )    return output_text

输出效果如下,以下字段便是实际运用于模型微调时,输入给模型的数据样式:

[gMASK]<sop><|user|>保持健康的三个提示。<|assistant|>以下是保持健康的三个提示:
1. 保持身体活动。每天做适当的身体运动,如散步、跑步或游泳,能促进心血管健康,增强肌肉力量,并有助于减少体重。
2. 均衡饮食。每天食用新鲜的蔬菜、水果、全谷物和脂肪含量低的蛋白质食物,避免高糖、高脂肪和加工食品,以保持健康的饮食习惯。
3. 睡眠充足。睡眠对人体健康至关重要,成年人每天应保证 7-8 小时的睡眠。良好的睡眠有助于减轻压力,促进身体恢复,并提高注意力和记忆力。

最后便是训练的超参数设置和训练过程的实现,这里由于数据规模比较小,我们训练600个steps,每个GPU实际batch大小为1*4:

################# Train kwargs################@dataclassclass MySFTConfig(SFTConfig):    output_dir: Optional[str] = field(        default="./output/lora-glm4-9b-alpaca",        metadata={            "help": "The output directory where the model predictions and checkpoints will be written. Defaults to 'lora-glm4-9b-toolcall' if not provided."        },    )    num_train_epochs: float = field(        default=3.0, metadata={"help": "Total number of training epochs to perform."}    )    per_device_train_batch_size: int = field(        default=2,        metadata={"help": "Batch size per GPU/TPU/MPS/NPU core/CPU for training."},    )    per_device_eval_batch_size: int = field(        default=4,        metadata={"help": "Batch size per GPU/TPU/MPS/NPU core/CPU for evaluation."},    )    gradient_accumulation_steps: int = field(        default=1,        metadata={            "help": "Number of updates steps to accumulate before performing a backward/update pass."        },    )    learning_rate: float = field(        default=5e-4, metadata={"help": "The initial learning rate for AdamW."}    )    bf16: bool = field(        default=True,        metadata={            "help": (                "Whether to use bf16 (mixed) precision instead of 32-bit. Requires Ampere or higher NVIDIA"                " architecture or using CPU (use_cpu) or Ascend NPU. This is an experimental API and it may change."            )        },    )    bf16_full_eval: bool = field(        default=True,        metadata={            "help": (                "Whether to use full bfloat16 evaluation instead of 32-bit. This is an experimental API and it may"                " change."            )        },    )    max_seq_length: Optional[int] = field(        default=512,        metadata={            "help": "Maximum length of the tokenized sequence. Sequences longer than `max_seq_length` are truncated "            "from the right. If `None`, no truncation is applied. When packing is enabled, this value sets the "            "sequence length."        },    )    eval_strategy: Union[str] = field(        default="steps",        metadata={"help": "The evaluation strategy to use."},    )    eval_steps: Optional[float] = field(        default=0.1,        metadata={            "help": (                "Run an evaluation every X steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )    logging_steps: float = field(        default=10,        metadata={            "help": (                "Log every X updates steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )    save_steps: float = field(        default=0.1,        metadata={            "help": (                "Save checkpoint every X updates steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )

训练的流程这块如下,使用HF TRL后流程变得非常简洁。

################# Training################trainer = SFTTrainer(    model=model_args.model_name_or_path,    args=training_args,    data_collator=None,    train_dataset=raw_datasets["train"],    eval_dataset=(        raw_datasets["test"] if training_args.eval_strategy != "no" else None    ),    processing_class=tokenizer,    peft_config=get_peft_config(model_args),    formatting_func=formatting_func,    callbacks=[SavePredictCallback()],)trainer.train()

启动训练+效果评测

本代码在实现训练时默认是开启SwanLab的。SwanLab被官方集成进入了🤗HuggingFace Transformers。可以通过report_to="swanlab"开启训练跟踪。如果本地环境安装了SwanLab会默认开启!

启动训练的命令如下:

python instruct_train.py

可以看到如下启动信息

img

如果没登录SwanLab可能会弹出登录提示,这里推荐选择1并在https://swanlab.cn完成注册。即可在线查看到训练进展。

登陆命令如下

swanlab login

点击打印出的链接即可通过看板查看训练日志:

img

通过配置callback,SwanLab还能自动记录模型的预测输出,代码和效果如下:

################# Print prediction text callback################class SavePredictCallback(TrainerCallback):    def __init__(self, num_steps=10):        self.num_steps = num_steps
    def on_save(self, args, state, control, model, processing_class, **kwargs):        if state.is_world_process_zero:            tokenizer = processing_class            batch_test_message = [                [{"role": "user", "content": "你好,告诉我你的名字。"}],                [{"role": "user", "content": "告诉我1+2等于多少?"}],            ]            batch_inputs_text = tokenizer.apply_chat_template(                batch_test_message,                return_tensors="pt",                return_dict=True,                padding=True,                padding_side="left",                add_generation_prompt=True,            ).to(model.device)
            # print(batch_inputs_text)            outputs = model.generate(**batch_inputs_text, max_new_tokens=512)            batch_reponse = tokenizer.batch_decode(                outputs, skip_special_tokens=False            )            log_text_list = [swanlab.Text(response) for response in batch_reponse]            swanlab.log({"Prediction": log_text_list}, step=state.global_step)

img

多卡实验

如果你的卡数比较多,推荐使用多卡训练来极大提升训练速度!首先安装huggingface accelerate和deepspeed来方便的开启zero2多卡训练:

pip install accelerate deepspeed

接下来使用如下命令来开启多卡训练(默认8GPU,可更改num_processes参数为实际卡数):

accelerate launch --num_processes 8 --config_file configs/zero2.yaml instruct_train.py

关于zero2的详细设置在configs/zero2.yaml中。

模型将会保存在output/lora-glm4-9b-alpaca,由于笔者的硬盘空间有限,因此仅仅保存Lora权重,推理加载时也要记得加载原始模型。

推理+效果对比

可以通过使用如下命令进行命令行聊天:

bash chat_cli.py

效果如下,我个人感觉有点overfit,因此建议大家使用早一点的checkpoints来做推理:

img

附件:完整代码

完整代码如下,推荐还是通过使用github获得完整的代码

https://github.com/SwanHubX/glm4-finetune

记得帮忙点个star🌟

"""Refer: https://huggingface.co/docs/trl/sft_trainer#add-special-tokens-for-chat-format for more advance tools"""import argparsefrom typing import Optional, Union, Listfrom dataclasses import dataclass, fieldimport datasetsfrom transformers import AutoTokenizer, TrainerCallbackfrom trl import (    ModelConfig,    SFTConfig,    SFTTrainer,    TrlParser,    get_kbit_device_map,    get_peft_config,    get_quantization_config,)import swanlab################# Model kwargs################@dataclassclass ChatGLM4ModelConfig(ModelConfig):    model_name_or_path: Optional[str] = field(        default="./weights/glm-4-9b-hf",        metadata={            "help": "Model checkpoint for weights initialization. default used glm4"        },    )    torch_dtype: Optional[str] = field(        default="bfloat16",        metadata={            "help": "Override the default `torch.dtype` and load the model under this dtype.",            "choices": ["auto", "bfloat16", "float16", "float32"],        },    )    use_peft: bool = field(        default=True,        metadata={"help": "Whether to use PEFT for training. Default true"},    )    lora_r: int = field(        default=8,        metadata={"help": "LoRA R value."},    )    lora_alpha: int = field(        default=32,        metadata={"help": "LoRA alpha."},    )    lora_dropout: float = field(        default=0.1,        metadata={"help": "LoRA dropout."},    )    lora_target_modules: Optional[list[str]] = field(        default_factory=lambda: ["q_proj", "k_proj", "v_proj"],        metadata={"help": "LoRA target modules."},    )################# Datasets kwargs################@dataclassclass DataTrainingArguments:    data_files: Optional[str] = field(        default="./data/alpaca_gpt4_data_zh.json",        metadata={"help": "The name of the dataset to use (via the datasets library)."},    )################# Train kwargs################@dataclassclass MySFTConfig(SFTConfig):    output_dir: Optional[str] = field(        default="./output/lora-glm4-9b-alpaca",        metadata={            "help": "The output directory where the model predictions and checkpoints will be written. Defaults to 'lora-glm4-9b-toolcall' if not provided."        },    )    num_train_epochs: float = field(        default=3.0, metadata={"help": "Total number of training epochs to perform."}    )    per_device_train_batch_size: int = field(        default=2,        metadata={"help": "Batch size per GPU/TPU/MPS/NPU core/CPU for training."},    )    per_device_eval_batch_size: int = field(        default=4,        metadata={"help": "Batch size per GPU/TPU/MPS/NPU core/CPU for evaluation."},    )    gradient_accumulation_steps: int = field(        default=1,        metadata={            "help": "Number of updates steps to accumulate before performing a backward/update pass."        },    )    learning_rate: float = field(        default=5e-4, metadata={"help": "The initial learning rate for AdamW."}    )    bf16: bool = field(        default=True,        metadata={            "help": (                "Whether to use bf16 (mixed) precision instead of 32-bit. Requires Ampere or higher NVIDIA"                " architecture or using CPU (use_cpu) or Ascend NPU. This is an experimental API and it may change."            )        },    )    bf16_full_eval: bool = field(        default=True,        metadata={            "help": (                "Whether to use full bfloat16 evaluation instead of 32-bit. This is an experimental API and it may"                " change."            )        },    )    max_seq_length: Optional[int] = field(        default=512,        metadata={            "help": "Maximum length of the tokenized sequence. Sequences longer than `max_seq_length` are truncated "            "from the right. If `None`, no truncation is applied. When packing is enabled, this value sets the "            "sequence length."        },    )    eval_strategy: Union[str] = field(        default="steps",        metadata={"help": "The evaluation strategy to use."},    )    eval_steps: Optional[float] = field(        default=0.1,        metadata={            "help": (                "Run an evaluation every X steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )    logging_steps: float = field(        default=10,        metadata={            "help": (                "Log every X updates steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )    save_steps: float = field(        default=0.1,        metadata={            "help": (                "Save checkpoint every X updates steps. Should be an integer or a float in range `[0,1)`. "                "If smaller than 1, will be interpreted as ratio of total training steps."            )        },    )################# Print prediction text callback################class SavePredictCallback(TrainerCallback):    def __init__(self, num_steps=10):        self.num_steps = num_steps    def on_save(self, args, state, control, model, processing_class, **kwargs):        if state.is_world_process_zero:            tokenizer = processing_class            batch_test_message = [                [{"role": "user", "content": "你好,告诉我你的名字。"}],                [{"role": "user", "content": "告诉我1+2等于多少?"}],            ]            batch_inputs_text = tokenizer.apply_chat_template(                batch_test_message,                return_tensors="pt",                return_dict=True,                padding=True,                padding_side="left",                add_generation_prompt=True,            ).to(model.device)            # print(batch_inputs_text)            outputs = model.generate(**batch_inputs_text, max_new_tokens=512)            batch_reponse = tokenizer.batch_decode(outputs, skip_special_tokens=False)            log_text_list = [swanlab.Text(response) for response in batch_reponse]            swanlab.log({"Prediction": log_text_list}, step=state.global_step)def main(model_args, data_args, training_args):    ################    # Model init kwargs & Tokenizer    ################    quantization_config = get_quantization_config(model_args)    model_kwargs = dict(        trust_remote_code=model_args.trust_remote_code,        attn_implementation=model_args.attn_implementation,        torch_dtype=model_args.torch_dtype,        use_cache=False if training_args.gradient_checkpointing else True,        device_map=get_kbit_device_map() if quantization_config is not None else None,        quantization_config=quantization_config,    )    training_args.model_init_kwargs = model_kwargs    tokenizer = AutoTokenizer.from_pretrained(        model_args.model_name_or_path,        trust_remote_code=model_args.trust_remote_code,        use_fast=True,    )    if tokenizer.pad_token is None:        tokenizer.pad_token = tokenizer.eos_token    if tokenizer.chat_template is None:        tokenizer.chat_template = "[gMASK]<sop>{% for item in messages %}{% if item['tools'] is defined %}<|system|>\n你是一个名为 ChatGLM 的人工智能助手。你是基于智谱AI训练的语言模型 GLM-4 模型开发的,你的任务是针对用户的问题和要求提供适当的答复和支持。\n\n# 可用工具{% set tools = item['tools'] %}{% for tool in tools %}{% if tool['type'] == 'function' %}\n\n## {{ tool['function']['name'] }}\n\n{{ tool['function'] | tojson(indent=4) }}\n在调用上述函数时,请使用 Json 格式表示调用的参数。{% elif tool['type'] == 'python' %}\n\n## python\n\n当你向 `python` 发送包含 Python 代码的消息时,该代码将会在一个有状态的 Jupyter notebook 环境中执行。\n`python` 返回代码执行的输出,或在执行 60 秒后返回超时。\n`/mnt/data` 将会持久化存储你的文件。在此会话中,`python` 无法访问互联网。不要使用 `python` 进行任何网络请求或者在线 API 调用,这些在线内容的访问将不会成功。{% elif tool['type'] == 'simple_browser' %}\n\n## simple_browser\n\n你可以使用 `simple_browser` 工具。该工具支持以下函数:\n`search(query: str, recency_days: int)`:使用搜索引擎进行查询并显示结果,可以使用 `recency_days` 参数控制搜索内容的时效性。\n`mclick(ids: list[int])`:获取一系列指定 id 的页面内容。每次调用时,须选择3-10个页面。选择多个角度的页面,同时尽可能选择可信任的信息来源。考虑到部分页面是无法加载的,你也可以多打开一些可能有用的页面而不用担心内容过多。\n`open_url(url: str)`:打开指定的 URL。\n\n使用 `【{引用 id}†{引用文本}】` 来引用内容。\n\n操作步骤:1. 使用 `search` 来获得信息列表; 2. 使用 `mclick` 来获取指定 ID 页面的内容; 3. 根据获得的内容进行回复。在回复中应当引用信息来源。\n 如果用户提供了 URL,也可以用 `open_url` 直接打开页面。\n如果初次搜索结果没有找到合适的信息,也可以再次使用 `search` 进行搜索。{% elif tool['type'] == 'cogview' %}\n\n## cogview\n\n如果用户的请求中包含了对图像的描述,你可以使用 `cogview` 来生成图像并展示给用户。你需要向 `cogview` 发送图像描述,规则:\n- 发送给 `cogview` 的消息必须使用英语。用户的中文描述必须完全翻译为英语。\n- 应当尽可能详细地描述图像生成的需求,需求描述约 100 英文单词。\n- 保持用户原始描述的意图。不要虚构内容或者没见过的人物。\n- 如无特殊说明,所在地为中国,持有中国立场并遵循中国社会主义价值观。{% endif %}{% endfor %}{% endif %}{% if item['content'] %}<|{{ item['role'] }}|>{{ item['metadata'] }}\n{{ item['content'] }}{% endif %}{% endfor %}{% if add_generation_prompt %}<|assistant|>{% endif %}"    ################    # Dataset    ################    raw_datasets = datasets.load_dataset("json", data_files=data_args.data_files)    raw_datasets = raw_datasets["train"].train_test_split(0.05)  # split train test data    def formatting_func(example):        """        process data format        """        prompt = example["instruction"]        if len(example["input"]) != 0:            prompt += "\n\n" + example["input"]        conversations = [            {"role": "user", "content": prompt},            {"role": "assistant", "content": example["output"]},        ]        output_text = tokenizer.apply_chat_template(            conversation=conversations, tokenize=False        )        return output_text    ################    # Training    ################    trainer = SFTTrainer(        model=model_args.model_name_or_path,        args=training_args,        data_collator=None,        train_dataset=raw_datasets["train"],        eval_dataset=(            raw_datasets["test"] if training_args.eval_strategy != "no" else None        ),        processing_class=tokenizer,        peft_config=get_peft_config(model_args),        formatting_func=formatting_func,        callbacks=[SavePredictCallback()],    )    trainer.train()    # Save    trainer.save_model(training_args.output_dir)def make_parser(subparsers: argparse._SubParsersAction = None):    dataclass_types = (ChatGLM4ModelConfig, DataTrainingArguments, MySFTConfig)    if subparsers is not None:        parser = subparsers.add_parser(            "sft", help="Run the SFT training script", dataclass_types=dataclass_types        )    else:        parser = TrlParser(dataclass_types)    return parserif __name__ == "__main__":    parser = make_parser()    model_args, data_args, training_args = parser.parse_args_and_config()    main(model_args, data_args, training_args)

0基础如何入门大模型?

大模型目前在人工智能领域可以说正处于一种“炙手可热”的状态,吸引了很多人的关注和兴趣,也有很多新人小白想要学习入门大模型,那么,如何入门大模型呢?

下面给大家分享一份2025最新版的大模型学习路线,帮助新人小白更系统、更快速的学习大模型!

有需要完整版学习路线,可以微信扫描下方二维码,或点击下方链接免费领取!

**读者福利 |** 👉2024最新《AGI大模型学习资源包》免费分享 **(安全链接,放心点击)**
在这里插入图片描述

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)

img

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。

img

img

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

img

👉4.大模型落地应用案例PPT👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)

img

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)

img

img

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

img

👉学会后的收获:👈基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以点击下方链接免费领取 【保证100%免费】

在这里插入图片描述
**读者福利 |** 👉2024最新《AGI大模型学习资源包》免费分享 **(安全链接,放心点击)**

(👆👆👆安全链接,放心点击)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员一粟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值