大模型的常用指令格式 --> ShareGPT 和 Alpaca (以 llama-factory 里的设置为例)

  1. ShareGPT 格式
    提出背景:ShareGPT 格式起初来自于用户在社交平台上分享与聊天模型的对话记录,这些记录涵盖了丰富的多轮对话内容。研究者们意识到,这类真实的对话数据可以帮助模型更好地学习多轮对话的上下文保持、回应生成等能力。因此,ShareGPT 格式逐渐被用于多轮对话的指令微调。
    目标:帮助模型理解复杂的多轮交互,提升模型的对话连贯性、上下文一致性和信息检索能力。
    主要应用:ShareGPT 格式应用于需要模拟自然对话流的场景,例如聊天机器人、客服问答、陪伴式 AI 助手等。其设计结构支持用户与助手之间交替对话的记录,适合训练多轮对话模型。
  2. Alpaca 格式
    提出背景:Alpaca 格式由斯坦福大学的研究人员在 2023 年提出,他们旨在通过一种低成本的方式对大型语言模型进行指令微调。Alpaca 项目使用 OpenAI 的 GPT-3.5 模型生成了大量指令数据,并采用简化的格式——instruction、input 和 output 字段——来表述单轮任务。这个结构化的指令-响应格式使模型可以专注于对特定任务的理解。
    目标:Alpaca 格式的设计重点在于让模型理解明确的任务指令,以便模型在接到特定任务时能生成更精确的响应。
    主要应用:Alpaca 格式被广泛应用于以任务为导向的指令微调任务中,尤其适合单轮任务(如总结、翻译、问答等),并不依赖多轮对话上下文,结构简洁且任务导向清晰。
    总结
    ShareGPT:适用于多轮对话微调,背景是对多轮自然对话数据的需求。
    Alpaca:适用于单轮指令微调,背景是低成本的指令微调需求,通过简单的指令-响应结构实现任务定向训练。

dataset_info.json 包含了所有经过处理的 本地数据集 和 在线数据集。如果使用本地数据集, 务必在 dataset_info.json 中添加对应数据集及其内容的定义

目前支持 Alpaca 格式 和 ShareGPT 的格式

1.Alpaca

针对不同任务,数据集格式要求如下:

  • 指令监督微调
  • 预训练
  • 偏好训练
  • KTO
  • 多模态

1.指令监督微调

  1. 样例如下

    在这里插入图片描述

  2. 解释

    1. instruction 对应的内容是人类指令

    2. input 对应内容是人类输入

    3. output 对应内容是模型回答

      在进行指令监督微调时, instruction 列的内容会与 input 列对应内容拼接后作为最终人类的输入,即人类输入为 instruction\ninput。而 output 为模型回答

    4. 如果指定 system 列,对应内容将被作为系统提示词

    5. history 列是由多个字符串二元组构成的列表,分别代表历史消息中每轮对话的指令和回答。注意,在指令监督微调时,历史消息中的回答内容也会被用于模型学习

  3. 最终指令微调的格式要求如下

    [
      {
        "instruction": "人类指令(必填)",
        "input": "人类输入(选填)",
        "output": "模型回答(必填)",
        "system": "系统提示词(选填)",
        "history": [
          ["第一轮指令(选填)", "第一轮回答(选填)"],
          ["第二轮指令(选填)", "第二轮回答(选填)"]
        ]
      }
    ]
    
    • 样例如下

      [
        {
          "instruction": "今天的天气怎么样?",
          "input": "",
          "output": "今天的天气不错,是晴天。",
          "history": [
            [
              "今天会下雨吗?",
              "今天不会下雨,是个好天气。"
            ],
            [
              "今天适合出去玩吗?",
              "非常适合,空气质量很好。"
            ]
          ]
        }
      ]
      
  4. 对于上述的数据,dataset_info.json 的数据集描述应为

    "数据集名称": {
      "file_name": "data.json",
      "columns": {
        "prompt": "instruction",
        "query": "input",
        "response": "output",
        "system": "system",
        "history": "history"
      }
    }
    

2.预训练数据

  1. 样例如下

    在这里插入图片描述

  2. 大语言模型通过学习未被标记的文本进行预训练,从而学习语言的表征。通常,预训练数据集从互联网上获得,因为互联网上提供了大量的不同领域的文本信息,有助于提升模型的泛化能力。 预训练数据集文本描述格式如下:

    [
      {"text": "document"},
      {"text": "document"}
    ]
    
  3. 在预训练的时候,只有 text 列中的内容(document)会用于模型学习

  4. 对于上述数据,dataset_info.json 的数据集描述为

    "数据集名称": {
      "file_name": "data.json",
      "columns": {
        "prompt": "text"
      }
    }
    

3.偏好数据集

偏好数据集用于奖励模型训练、DPO训练 和 ORPO 训练。对于系统指令和人类输入,偏好数据集给出了一个更优的回答和一个更差的回答。

一些研究 表明通过让模型学习“什么更好”可以使得模型更加迎合人类的需求。 甚至可以使得参数相对较少的模型的表现优于参数更多的模型。

  1. 偏好数据集需要在 chosen 列中提供更优的回答,并在 rejected 中提供更差的回答,在一轮问答中,格式如下

    [
      {
        "instruction": "人类指令(必填)",
        "input": "人类输入(选填)",
        "chosen": "优质回答(必填)",
        "rejected": "劣质回答(必填)"
      }
    ]
    
  2. dataset_info.json 的数据集描述为:

    "数据集名称": {
      "file_name": "data.json",
      "ranking": true,
      "columns": {
        "prompt": "instruction",
        "query": "input",
        "chosen": "chosen",
        "rejected": "rejected"
      }
    }
    

DPO(Direct Preference Optimization)和 ORPO(Off-Policy Preference Optimization)是两种用于偏好优化的训练方法,主要用于提升语言模型对用户偏好的响应能力。它们在强化学习(RLHF, Reinforcement Learning with Human Feedback)框架下使用。

1. DPO(Direct Preference Optimization):

  • 目标: 直接通过用户反馈优化模型输出的偏好,使模型更加符合用户的选择。
  • 方法: 不使用强化学习的奖励建模,而是直接在训练数据中根据人类偏好来优化。通过给定两种生成结果,用户给出偏好,模型学习去优化自己生成更符合偏好的结果。
  • 优点: 不依赖复杂的奖励函数设计,直接根据人类偏好进行优化,训练过程简单且高效。
  • 适用场景: 适合场景是有明确的偏好数据并且希望快速迭代和调整模型的偏好输出。

2. ORPO(Off-Policy Preference Optimization):

  • 目标: 在偏离当前策略的数据上,使用偏好信息优化模型,使其在长期上更加符合用户的期望。
  • 方法: 利用“离线”策略的偏好反馈,通过基于强化学习的优化手段来调整模型。 ORPO 使用先前收集的数据进行优化,而不需要像 DPO 那样直接使用偏好进行梯度优化。它与 DPO 不同的是,模型可以在已经采集好的数据上进行偏好训练,不需要实时获取偏好反馈。
  • 优点: 更适合在大规模历史数据上进行训练,训练更为稳健,可以更好地处理复杂的偏好优化问题。
  • 适用场景: 适合有大量历史偏好数据的情况,尤其是难以获取实时偏好反馈的场景。

两者主要区别在于:

  • DPO 是一种直接基于偏好梯度进行优化的策略,而 ORPO 通过强化学习的方式,在离线数据上进行优化。

4.KTO 数据集

KTO 数据集与偏好数据集类似,但不同于给出一个更优的回答和一个更差的回答,KTO 数据集对每一轮问答只给出一个 true/false 的 label。除了 instruction 以及 input 组成的人类最终输入和模型回答 output,KTO 数据集还需要一个额外的 kto_tag 列(true/false) 来表示人类反馈

  1. 一轮问答中的格式如下

    [
      {
        "instruction": "人类指令(必填)",
        "input": "人类输入(选填)",
        "output": "模型回答(必填)",
        "kto_tag": "人类反馈 [true/false](必填)"
      }
    ]
    
  2. dataset_info.json

    "数据集名称": {
      "file_name": "data.json",
      "columns": {
        "prompt": "instruction",
        "query": "input",
        "response": "output",
        "kto_tag": "kto_tag"
      }
    }
    

KTO 在这里指的是 “Knowledge Transfer Optimization”(知识迁移优化)相关的数据集。它用于优化模型在知识迁移过程中的能力,特别是在人机交互场景中,评估模型生成的答案是否符合人类的预期。

主要内容:

KTO 数据集不仅包含模型的生成结果,还包括人类的反馈,用来优化模型的响应能力。这种数据集设计类似于偏好优化数据集(Preference Optimization),但区别在于,KTO 不是让人类对两种回答进行排序,而是对每一轮问答通过 true/false 的标签直接评估模型的回答是否合格。

数据集结构:

  • Instruction: 人类的指令或提问。
  • Input: 人类最终的输入内容。
  • Output: 模型生成的回答。
  • kto_tag: 人类反馈(true/false),用于标注该模型的回答是否符合预期。

应用场景:

KTO 数据集特别适合用于模型优化,尤其是在模型需要从训练数据中学习如何更好地回应人类问题时。通过这种数据集,模型能够更高效地识别正确的反馈模式,从而提升在实际应用中的表现。这类数据集常用于大语言模型的强化学习阶段,用来替代复杂的奖励建模过程。

5.多模态数据集

多模态数据集需要额外添加一个 images 列,包含输入图像的路径。目前仅支持单张图像输入。

[
  {
    "instruction": "人类指令(必填)",
    "input": "人类输入(选填)",
    "output": "模型回答(必填)",
    "images": [
      "图像路径(必填)"
    ]
  }
]

dataset_info.json 描述为

"数据集名称": {
  "file_name": "data.json",
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output",
    "images": "images"
  }
}

2.ShareGPT 格式

Note:

  • ShareGPT 格式中的 KTO数据集(样例)和多模态数据集(样例) 与 Alpaca 格式的类似。
  • 预训练数据集不支持 ShareGPT 格式。

1.指令监督微调数据集

与 alpaca 格式相比,sharegpt 格式支持更多的角色种类,如 human、gpt、observation、function 等。他们构成一个对象列表呈现在 conversations 列中。

样例如下:

{
  "conversations": [
    {
      "from": "human",
      "value": "你好,我出生于1990年5月15日。你能告诉我我今天几岁了吗?"
    },
    {
      "from": "function_call",
      "value": "{\"name\": \"calculate_age\", \"arguments\": {\"birthdate\": \"1990-05-15\"}}"
    },
    {
      "from": "observation",
      "value": "{\"age\": 31}"
    },
    {
      "from": "gpt",
      "value": "根据我的计算,你今天31岁了。"
    }
  ],
  "tools": "[{\"name\": \"calculate_age\", \"description\": \"根据出生日期计算年龄\", \"parameters\": {\"type\": \"object\", \"properties\": {\"birthdate\": {\"type\": \"string\", \"description\": \"出生日期以YYYY-MM-DD格式表示\"}}, \"required\": [\"birthdate\"]}}]"
}

Note:
human 和 observation 必须出现在奇数位置,gpt 和 function 必须出现在偶数位置

dataset_info.json 描述为

"数据集名称": {
  "file_name": "data.json",
  "formatting": "sharegpt",
  "columns": {
    "messages": "conversations",
    "system": "system",
    "tools": "tools"
  }
}

2.偏好数据集

与 alpaca 类似

{
  "conversations": [
    {
      "from": "human",
      "value": "老虎会吃哪一个,草还是树叶?"
    }
  ],
  "chosen": {
    "from": "gpt",
    "value": "我很高兴能帮助你解答问题!不过,我必须指出,这个问题本身可能没有意义。老虎是食肉动物,通常不吃草或树叶。它们的饮食主要包括大型有蹄动物、小型哺乳动物和鸟类。\n\n如果你提出这个问题是出于好奇或有特定原因,我很乐意帮助你找到更多关于老虎饮食习惯的信息,或者建议资源让你更多了解这些壮丽的生物。请告诉我如何进一步协助你!"
  },
  "rejected": {
    "from": "gpt",
    "value": "一只老虎是食肉动物,这意味着它的饮食主要是肉类。老虎主要猎捕和吃其他动物,如鹿和野猪。它们不会选择吃草或树叶,因为这些不是它们自然饮食的一部分。"
  }
}

格式如下

[
  {
    "conversations": [
      {
        "from": "human",
        "value": "人类指令"
      },
      {
        "from": "gpt",
        "value": "模型回答"
      },
      {
        "from": "human",
        "value": "人类指令"
      }
    ],
    "chosen": {
      "from": "gpt",
      "value": "优质回答"
    },
    "rejected": {
      "from": "gpt",
      "value": "劣质回答"
    }
  }
]

dataset_info.json 的描述为

"数据集名称": {
  "file_name": "data.json",
  "formatting": "sharegpt",
  "ranking": true,
  "columns": {
    "messages": "conversations",
    "chosen": "chosen",
    "rejected": "rejected"
  }
}

3.OpenAI 格式

OpenAI 格式仅仅是 sharegpt 格式的一种特殊情况,其中第一条消息可能是系统提示词

[
  {
    "messages": [
      {
        "role": "system",
        "content": "系统提示词(选填)"
      },
      {
        "role": "user",
        "content": "人类指令"
      },
      {
        "role": "assistant",
        "content": "模型回答"
      }
    ]
  }
]

dataset_info.json

"数据集名称": {
  "file_name": "data.json",
  "formatting": "sharegpt",
  "columns": {
    "messages": "messages"
  },
  "tags": {
    "role_tag": "role",
    "content_tag": "content",
    "user_tag": "user",
    "assistant_tag": "assistant",
    "system_tag": "system"
  }
}
<think>好的,我现在需要回答用户关于如何使用ShareGPT数据集进行模型训练或开发的问题。首先,我需要明确用户的需求。用户可能已经知道ShareGPT数据集是什么,但需要具体的步骤教程来开始使用它。因此,我的回答需要结构清晰,分步骤说明,并尽量提供实用的信息。 首先,我应该了解ShareGPT数据集的基本信息。根据用户提供的引用[2],ShareGPT格式的数据可能存储在JSON文件中,如`alpaca_zh_demo.json`。通常,这类数据集包含对话或指令数据,用于训练对话型AI模型。因此,数据集的格式可能是每个条目有"instruction"、"input"、"output"这样的字段,或者是多轮对话的结构。 接下来,用户需要知道如何获取预处理这个数据集。我需要检查是否有公开的ShareGPT数据集资源,或者是否需要通过特定渠道获取。如,用户可能需要从GitHub仓库克隆代码,或者下载特定的JSON文件。预处理步骤可能包括数据清洗、格式转换、划分训练集验证集等。 然后是模型训练的步骤。用户可能希望了解如何使用该数据集来微调现有的模型,比如使用LLaMA-Factory这样的工具。我需要参考引用[2]中的GitHub链接,查看是否有相关的训练脚本或示代码。可能还需要说明如何配置训练参数、加载数据集、定义模型架构等。 此外,用户可能对数据集的格式转换感兴趣,比如如何将ShareGPT格式转换为其他框架(如Hugging Face的Dataset格式)所需的格式。这部分需要给出具体的代码示,如Python脚本,展示如何读取JSON文件并进行必要的处理。 最后,验证测试模型的部分也很重要。用户需要知道训练完成后如何评估模型性能,可能包括生成回复、计算指标如BLEU分数,或者进行人工评估。提供示代码展示如何加载训练好的模型并进行推理,将有助于用户实际操作。 在思考过程中,还需要注意以下几点: 1. 确保所有数学表达式公式正确使用LaTeX格式,如变量用$x$,独立公式用$$...$$。 2. 使用中文回答,保持口语化,避免使用Markdown格式。 3. 引用用户提供的参考资料,特别是在关键步骤处添加引用标识。 4. 生成的相关问题需要与主题紧密相关,帮助用户深入理解。 现在,我需要组织这些思路,按照用户提供的系统级指令中的结构来回答,包括分步骤的教程、代码示、注意事项相关问题。同时,确保引用正确,如在提到数据集格式时引用[^2],在涉及数据生成时引用[^1]。 可能遇到的问题包括:用户是否已经安装了必要的库,如Hugging Face的TransformersDatasets?是否需要解释如何安装这些依赖?此外,数据预处理的具体步骤是否需要更多细节?如,如何处理多轮对话,或者如何处理不同语言的数据(如中文)? 考虑到这些,我需要在回答中包含安装依赖的步骤,并给出代码示中的必要导入语句。同时,解释数据中的关键字段,确保用户理解每个部分的作用。如,"instruction"代表任务指令,"input"是用户输入,"output"是期望的模型输出。 最后,生成的相关问题应该引导用户进一步探索,比如数据集构建的其他方法、微调技巧,或者与其他数据集的比较。这样可以帮助用户扩展他们的知识,并解决后续可能遇到的问题。</think>以下是使用ShareGPT数据集进行模型训练的步骤教程: ### 一、数据集准备 1. 下载数据集文件 ShareGPT数据集通常存储为JSON格式文件,如`alpaca_zh_demo.json`。文件结构示: ```python [ { "instruction": "解释量子计算", "input": "", "output": "量子计算利用量子比特..." }, { "instruction": "将句子翻译成英语", "input": "今天天气很好", "output": "The weather is nice today." } ] ``` 2. 格式转换(以Hugging Face为) ```python from datasets import load_dataset def convert_format(example): return { "prompt": f"指令:{example['instruction']}\n输入:{example['input']}", "response": example['output'] } dataset = load_dataset("json", data_files="alpaca_zh_demo.json")["train"] dataset = dataset.map(convert_format) ``` ### 二、模型训练 1. 安装依赖 ```bash pip install transformers datasets peft ``` 2. 加载预训练模型 ```python from transformers import AutoTokenizer, AutoModelForCausalLM model_name = "baichuan-inc/Baichuan2-7B-Base" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) ``` 3. 创建训练参数 ```python from transformers import TrainingArguments training_args = TrainingArguments( output_dir="./results", per_device_train_batch_size=4, gradient_accumulation_steps=4, num_train_epochs=3, logging_steps=10, learning_rate=2e-5 ) ``` ### 三、训练过程 ```python from transformers import Trainer trainer = Trainer( model=model, args=training_args, train_dataset=dataset, tokenizer=tokenizer, data_collator=lambda data: { "input_ids": tokenizer([f"[INST]{x['prompt']}[/INST]{x['response']}" for x in data], padding=True, return_tensors="pt").input_ids } ) trainer.train() ``` ### 四、模型验证 ```python input_text = "解释深度学习的基本原理" inputs = tokenizer(f"[INST]{input_text}[/INST]", return_tensors="pt") outputs = model.generate(**inputs, max_length=200) print(tokenizer.decode(outputs[0])) ``` **注意事项**: 1. 建议使用LoRA等参数高效微调技术 2. 训练数据需要包含至少5,000条高质量样本 3. 注意控制序列长度(通常设置max_length=512)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值