只需30分钟,微调阿里 Qwen2-7B,搭建专属 AI 客服

产品接入大模型驱动的 AI 客服机器人也有一段时间了,也积累了不少真实场景下的客户问答数据,因为给每条回答设置了点 👍 点 👎 按钮,最近将其中点 👍 的问答对导出来(妥妥的人工标准高质量数据),试着基于 Qwen2-7B 微调一个小模型跑下效果,如果能够应付 85% 以上回答,准备在这个场景里撤下当前的智谱模型了。

本文首发自博客 手把手教你30分钟微调阿里 Qwen2-7B,搭建专属 AI 客服解决方案

我的新书《LangChain编程从入门到实践》 已经开售!推荐正在学习AI应用开发的朋友购买阅读,此书围绕LangChain梳理了AI应用开发的范式转变,除了LangChain,还涉及其他诸如 LIamaIndex、AutoGen、AutoGPT、Semantic Kernel等热门开发框架。
LangChain编程从入门到实践

Qwen2-7B 在中文场景下的回答效果我在 siliconflow 上体验下来,效果很不错,所以选它做基础模型。

 Qwen2-7B

微调步骤

安装 LLaMA Factory 依赖

我是在谷歌 Colab 里面微调的,毕竟免费用户可以白嫖 15G 显存的 T4 GPU,这里特别感谢 LLaMA Factory 项目,一个包免去多余的依赖安装和环境配置。

%cd /content/
%rm -rf LLaMA-Factory
!git clone https://github.com/hiyouga/LLaMA-Factory.git
%cd LLaMA-Factory
%ls
!pip install -e .[torch,bitsandbytes]

更新预设数据集

这个 identity.json(自我认知数据集) 实际上更新的是基础模型内置设定,目的是让模型回答时既不是 Qwen2-7B、也不是 ChatGPT 等其他任何模型,它现在的名字叫BajiGo

import json

%cd /content/LLaMA-Factory/

NAME = "BajiGo"
AUTHOR = "莫尔索"

with open("data/identity.json", "r", encoding="utf-8") as f:
  dataset = json.load(f)

for sample in dataset:
  sample["output"] = sample["output"].replace("{{"+ "name" + "}}", NAME).replace("{{"+ "author" + "}}", AUTHOR)

with open("data/identity.json", "w", encoding="utf-8") as f:
  json.dump(dataset, f, indent=2, ensure_ascii=False)

下面是更新后的 identity.json 示例:

identity.json 示例

添加自定义数据

LLaMA-Factory 在 data 文件夹中提供了多个训练数据集示例,支持 alpacasharegpt 格式,不过我这里使用的是自己提前导出来做过处理的自定义数据集。

  1. 自定义数据集选用 alpaca,格式如下:

    [
      {
        "instruction": "user instruction (required)",
        "input": "user input (optional)",
        "output": "model response (required)",
        "system": "system prompt (optional)",
        "history": [
          ["user instruction in the first round (optional)", "model response in the first round (optional)"],
          ["user instruction in the second round (optional)", "model response in the second round (optional)"]
        ]
      }
    ]
    
  2. 因为我只有标注后的问答对,所以只需要填充instructionoutput部分即可,下面是部分数据,保存为 bajigo.json,并上传到 LLaMA-Factory 的 data 目录下。

      {
        "instruction": "我能建两份菜单然后自行切换吗",
        "input": "",
        "output": "你好,暂不支持同时创建多个菜单。如果你是想在不同时段进行不同的菜单展示,你可以在首页点击「商品」进入商品管理页面,之后点击右上方的「批量管理」按钮,选中商品后在下方按需要点击上架/下架进行批量操作,来更换菜单内商品。
        "system": "",
        "history": []
      },
      {
        "instruction": "优惠券怎么发",
        "input": "",
        "output": "你好,你可以在首页点击「活动&储值」->「活动」->「优惠券」设置优惠券,根据你的需求,自定义优惠券名称、生效范围、有效日期,优惠券类型也分为满减优惠券、折扣优惠券和免费优惠券。填好信息后,点击「下一步」按钮,就可以指定发送对象与发放数量了。目前只支持这种方式进行发券,不支持用户主动领取哦。,
        "system": "",
        "history": []
      },
      {
        "instruction": "怎么绑定打印机",
        "input": "",
        "output": "你好,你可以在首页点击「店铺设置」->「打印机」去添加打印机,并且我们支持同时绑定多台打印机。需要注意的是,我们目前只支持飞鹅牌的小票机和标签机,拿到机器后,你可以打开,然后找到打印机设置,扫描小票机或者标签机底部的二维码即可进行绑定。
        "system": "",
        "history": []
      },
    
  3. 修改dataset_info.json,将数据集添加到全局配置,好让程序到时候可以直接根据bajigo名称匹配到相应训练数据。

      "bajigo": {
      "file_name": "bajigo.json",
      "columns": {
        "prompt": "instruction",
        "query": "input",
        "response": "output",
        "system": "system",
        "history": "history"
        }
      },
    

配置训练参数

这里需要专门说下,刚开始计划使用的是 Qwen2-7B-Instruct 全量模型,奈何加载模型的时候 GPU 内存就爆了(大家如果不缺 GPU,配置为 Qwen/Qwen2-7B-Instruct 即可),最后找到了一个 4bit 量化版 Qwen2-7B-Instruct-bnb-4bit,下面是一些训练参数配置及解释。

import json

args = dict(
  stage="sft",                        # 进行指令监督微调
  do_train=True,
  model_name_or_path="unsloth/Qwen2-7B-Instruct-bnb-4bit", # 使用 4 bit量化版 Qwen2-7B-Instruct 模型
  dataset="identity,bajigo",      # 使用 bajigo 和自我认知数据集
  template="qwen",                     # 使用 qwen2 提示词模板
  finetuning_type="lora",                   # 使用 LoRA 适配器来节省显存
  lora_target="all",                     # 添加 LoRA 适配器至全部线性层
  output_dir="qwen2_lora",                  # 保存 LoRA 适配器的路径
  per_device_train_batch_size=2,               # 批处理大小
  gradient_accumulation_steps=4,               # 梯度累积步数
  lr_scheduler_type="cosine",                 # 使用余弦学习率退火算法
  logging_steps=10,                      # 每 10 步输出一个记录
  warmup_ratio=0.1,                      # 使用预热学习率
  save_steps=1000,                      # 每 1000 步保存一个检查点
  learning_rate=5e-5,                     # 学习率大小
  num_train_epochs=3.0,                    # 训练轮数
  max_samples=300,                      # 使用每个数据集中的 300 条样本
  max_grad_norm=1.0,                     # 将梯度范数裁剪至 1.0
  quantization_bit=4,                     # 使用 4 比特 QLoRA (可选,4 bit量化版)
  loraplus_lr_ratio=16.0,                   # 使用 LoRA+ 算法并设置 lambda=16.0(可选,4 bit量化版)
  fp16=True                         # 使用 float16 混合精度训练(可选,4 bit量化版)
)

json.dump(args, open("bajigo.json", "w", encoding="utf-8"), indent=2)

%cd /content/LLaMA-Factory/

!llamafactory-cli train bajigo.json  # 开始指令监督微调

开始训练

接下来就是耐心等待炼丹,差不多 16 分钟左右,模型就微调结束了,果然 4bit 小有小的好处,是不是很容易 😎。

微调结束

智能客服上线

接下来赶紧试下微调好的模型(利用 while 逻辑实现的一个简单终端对话效果)

%cd /content/LLaMA-Factory/
import sys
import os

# 获取当前工作目录
current_path = os.getcwd()

# 拼接当前工作目录和src目录的路径
src_path = os.path.join(current_path, 'src')

# 将src目录的路径添加到sys.path的开头
sys.path.insert(0, src_path)

from llamafactory.chat import ChatModel
from llamafactory.extras.misc import torch_gc

torch_gc()
args = dict(
  model_name_or_path="unsloth/Qwen2-7B-Instruct-bnb-4bit", # 使用 4 bit量化版 Qwen2-7B-Instruct 模型
  adapter_name_or_path="qwen2_lora",            # 加载之前保存的 LoRA 适配器
  template="qwen",                     # 和训练保持一致
  finetuning_type="lora",                  # 和训练保持一致
)
chat_model = ChatModel(args)

messages = []
print("使用 `clear` 清除对话历史,使用 `exit` 退出程序。")
while True:
  query = input("\n用户: ")
  if query.strip() == "exit":
    break
  if query.strip() == "clear":
    messages = []
    torch_gc()
    print("对话历史已清除")
    continue

  messages.append({"role": "user", "content": query})
  print("BajiGo: ", end="", flush=True)

  response = ""
  for new_text in chat_model.stream_chat(messages):
    print(new_text, end="", flush=True)
    response += new_text
  print()
  messages.append({"role": "assistant", "content": response})

下面就是对话效果截图,怎么样,回答的内容基本和训练数据集中的 QA 对差不多,接下来我会继续测试没纳入训练集的点 👎 问题的回答效果。

BajiGo对话效果

后台回复 「Qwen-7B」获取本次微调所有代码。
在这里插入图片描述

  • 12
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值