LLM:ChatGLM-6B模型进行P-Tunning训练记录及参数讲解

本文记录了使用ChatGLM-6B模型进行P-Tuning训练的过程,包括安装依赖、数据准备、训练脚本参数解析、训练步骤以及遇到的问题。重点介绍了欠拟合、泛化能力、收敛性和梯度爆炸等概念,并分享了初步结论和未来尝试的方向。
摘要由CSDN通过智能技术生成

模型训练

首先说明一下训练的目的:提供本地问答知识文件,训练之后可以按接近原文语义进行回答,类似一个问答机器人。

步骤

  1. 安装微调需要的依赖:
pip install rouge_chinese nltk jieba datasets
  1. 准备训练数据集:

数据集需要jsonline的格式,如果是单轮对话,需要设置输入输出两个字段(字段名可自定义,在训练脚本中通过参数指定即可),如果是多轮对话,需要额外指定历史字段。

以单轮对话为例:

{"question":"南京未来菁英训练营的报名年龄?","answer":"9-15岁,向下浮动2岁,向上浮动3岁。"}
{"question":"南京未来菁英训练营的接待标准是?","answer":"住宿:211高校、正餐餐标45元/人(5荤5素1汤1主食)。"}
  1. 准备训练脚本:tran.sh
PRE_SEQ_LEN=64
LR
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值