山东大学软件学院创新实训VCR系统个人博客

本博客为山东大学软件学院2024创新实训,25组可视化课程知识问答系统(VCR)的个人博客,记载个人任务进展。

第五周:对ChatGLM3进行微调,使用

修改配置文件

ChatGLM3的本地部署时,修改配置文件是一个关键的步骤,以确保模型能够按照需求正确运行:

确定配置文件位置

首先,需要找到ChatGLM3的配置文件。这是一个.json或.yaml文件,位于ChatGLM3的源码目录中。

常见的配置项

配置文件通常包含多个配置项:

  1. 模型路径(model_path)
    • 指定预训练模型的存储位置。确保路径正确,并且模型文件已经下载到该位置。
  2. 输入/输出设置(input/output settings)
    • 你可以设置输入的最大长度、截断策略等。
    • 输出设置可能包括是否返回概率分布、返回文本的最大长度等。
  3. GPU设置(GPU settings)
    • 如果你打算使用GPU进行推理或训练,需要指定GPU的ID或使用多GPU。
    • 还可以设置GPU的显存分配策略、是否使用混合精度等。
  4. 推理设置(inference settings)
    • 设置推理时的batch大小、推理模式(如greedy search、beam search等)。
    • 还可以设置top_k、top_p等参数来控制生成的多样性。
  5. 日志和调试(logging and debugging)
    • 设置日志级别、日志文件的位置等。
    • 还可以启用调试模式以获取更详细的错误信息。

 修改配置文件

  1. 使用文本编辑器
    • 打开配置文件,使用文本编辑器(如Notepad++、VS Code等)进行编辑。
  2. 修改配置项
    • 根据你的需求,修改上述配置项的值。确保理解每个配置项的作用和可能的取值范围。
  3. 保存并关闭文件
    • 在修改完成后,保存配置文件并关闭文本编辑器。

验证配置

在修改配置文件后,建议进行简单的验证以确保配置正确无误。运行ChatGLM3的示例代码或进行简单的推理测试来检查配置是否生效。

通过按照上述步骤修改ChatGLM3的配置文件,根据需求调整模型的运行参数,以便更好地满足应用场景。

 运行ChatGLM3,访问和使用ChatGLM3

 访问网页demo

  1. 打开浏览器
    启动你的浏览器(如Google Chrome)。
  2. 访问URL地址
    输入你在运行网页demo时得到的URL地址。如http://localhost:8080。
  3. 开始与ChatGLM3进行交互
    在网页上,看到一个输入框,用于输入问题或对话。输入问题后,点击发送或类似的按钮。ChatGLM3将处理请求,并在页面上显示回应。
  4. 继续对话
    在得到ChatGLM3的回应后,可以继续输入新的问题或继续对话。模型将基于之前的对话上下文生成新的回应。

 使用命令行demo

  1. 打开命令行或终端
    根据你的操作系统,打开命令行工具(Linux上是Terminal)。
  2. 导航到ChatGLM3目录
    使用cd命令导航到ChatGLM3的源码目录,确保能够运行命令行demo的脚本。
  3. 运行命令行demo
    运行用于启动命令行demo的脚本。这通常是一个Python脚本,如cli_demo.py(注意:脚本名称可能因ChatGLM3的版本和配置而异)。

bash

python cli_demo.py

  1. 开始与ChatGLM3进行交互
    在命令行demo启动后,将看到一个提示符(如>或$),表示可以开始输入了。输入问题或对话,然后按回车键。ChatGLM3将处理请求,并在命令行中显示回应。
  2. 继续对话
    在得到ChatGLM3的回应后,可以继续输入新的问题或继续对话。模型将基于之前的对话上下文生成新的回应。
  • 15
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值