[大模型]ChatGLM3-6B Code Interpreter

本文介绍了如何在Python3.10环境中,在autodl平台上配置3090显卡机器,使用modelscope下载和运行ChatGLM3-6B模型的CodeInterpreter功能。步骤包括更换pypi源、安装依赖、下载14GB模型、代码克隆与设置、以及运行streamlitdemo。
摘要由CSDN通过智能技术生成

ChatGLM3-6B Code Interpreter

请注意,本项目需要 Python 3.10 或更高版本。

环境准备

由于项目需要python 3.10或更高版本,所以我们在在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择Miniconda–>conda3–>3.10(ubuntu20.04)–>11.8

在这里插入图片描述

接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo

pip换源和安装依赖包

# 更换 pypi 源加速库的安装
# 升级pip
python -m pip install --upgrade pip

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pip install modelscope==1.9.5
pip install transformers==4.35.2

pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 torchaudio==2.0.2 --index-url https://download.pytorch.org/whl/cu117

模型下载

使用 modelscope 中的snapshot_download函数下载模型,第一个参数为模型名称,参数cache_dir为模型的下载路径。

/root/autodl-tmp 路径下新建 download.py 文件并在其中输入以下内容,粘贴代码后记得保存文件,如下图所示。并运行 python /root/autodl-tmp/download.py执行下载,模型大小为 14 GB,下载模型大概需要 10~20 分钟

import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os
model_dir = snapshot_download('ZhipuAI/chatglm3-6b', cache_dir='/root/autodl-tmp', revision='master')

代码准备

首先clone代码,打开autodl平台自带的学术镜像加速。学术镜像加速详细使用请看:https://www.autodl.com/docs/network_turbo/

source /etc/network_turbo

然后切换路径, clone代码.

cd /root/autodl-tmp
git clone https://github.com/THUDM/ChatGLM3.git

切换commit版本,与教程commit版本保持一致,可以让大家更好的复现。

cd ChatGLM3
git checkout f823b4a3be9666b9b2a9daa43b29659e876a040d

最后取消镜像加速,因为该加速可能对正常网络造成一定影响,避免对后续下载其他模型造成困扰。

unset http_proxy && unset https_proxy

然后切换路径到composite_demo目录,并安装相关依赖

cd /root/autodl-tmp/ChatGLM3/composite_demo
pip install -r requirements.txt

demo 运行

在终端运行以下代码,导入模型路径和Jupyter内核:

export MODEL_PATH=/root/autodl-tmp/ZhipuAI/chatglm3-6b
export IPYKERNEL=python3

然后运行以下代码,运行demo:

streamlit run /root/autodl-tmp/ChatGLM3/composite_demo/main.py --server.address 127.0.0.1 --server.port 6006

如下图所示,可以愉快的玩耍代码解释器了~

在这里插入图片描述

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: PHP公式解释器(PHP-Formula-Interpreter)是一个用于解释和计算数学公式的工具。它可以通过解析和评估用户提供的数学表达式来计算结果。 PHP-Formula-Interpreter可以处理包括基本算术运算符(例如加法、减法、乘法和除法)、指数计算(例如乘方)、三角函数、对数函数和常量(如π和e)等各种数学运算。它还可以处理复杂的公式,包括括号和多个运算符的组合。 使用PHP-Formula-Interpreter,开发者可以将数学公式嵌入到他们的PHP应用程序中,并通过调用相应的函数来计算结果。这使得开发者能够在应用程序中实现复杂的数学计算功能,而无需编写繁琐的算法或手动计算。 PHP-Formula-Interpreter的工作原理是通过将数学表达式解析成语法树,然后按照树的结构逐步计算出结果。它使用递归下降解析器的概念来解析表达式,并通过遍历语法树来执行计算。 使用PHP-Formula-Interpreter需要一定的数学和编程知识,因为开发者需要了解数学表达式的语法和运算规则,并使用合适的函数和参数进行调用。然而,一旦掌握了使用方法,在PHP应用程序中实现数学计算功能将变得更加简单和高效。 总而言之,PHP-Formula-Interpreter是一个强大的工具,可以帮助开发者在PHP应用程序中轻松解析和计算数学公式。它不仅简化了数学计算的实现过程,还提供了灵活性和可扩展性,使开发者能够在应用程序中使用各种数学运算。 ### 回答2: PHP公式解释器是一种用于解析和执行数学和逻辑表达式的工具。它可以解析包含变量、常数、操作符和函数的表达式,并返回计算结果。这种解释器通常被用于开发动态网页,特别是在处理表单和用户输入时。 使用PHP公式解释器,我们可以创建各种复杂的计算和逻辑表达式。它允许我们使用算术运算符(如加法、减法、乘法、除法)和逻辑运算符(如与、或、非)来操作和比较数值。 此外,PHP公式解释器还提供了许多内置函数,如求平方根、取整、绝对值等。我们还可以自定义函数,以满足特定的要求和计算需求。 使用PHP公式解释器可以有效地处理用户输入。例如,在一个表单中,我们可以使用公式解释器来验证用户输入的数值是否符合特定的规则。如果输入不符合要求,我们可以返回错误信息,提示用户重新输入。 总而言之,PHP公式解释器是一个重要的工具,可以在动态网页开发中处理各种数学和逻辑运算。通过将变量、常数和运算符结合起来,我们可以创建有趣和功能丰富的表达式,并获得相应的计算结果。它为我们提供了更大的灵活性和控制力,以满足各种计算需求。 ### 回答3: php-formula-interpreter 是一个用于解析和计算数学公式的 PHP 库。它可以帮助开发人员在他们的 PHP 项目中处理复杂的数学计算。 使用 php-formula-interpreter,我们可以轻松地解释和运行包含数学函数、变量和运算符的公式。这个库提供了一种灵活和强大的方式来处理数学表达式,无论是简单的加法和乘法,还是复杂的三角函数和对数等。 该库具有用户友好的界面和简单的使用方法。首先,我们需要加载库的包。然后,我们可以将数学表达式作为字符串传递给库的解释器。解释器将分析表达式并返回计算结果。 php-formula-interpreter 还提供了一些额外的功能,使开发人员能够控制解释和计算过程。例如,我们可以定义自己的数学函数和变量,并使用它们来编写更复杂的公式。我们还可以指定数值的精度和规则,以满足特定需求。 总之,php-formula-interpreter 是一个方便和实用的 PHP 库,用于解析和计算数学公式。它提供了简单易用的接口,并支持各种数学函数和运算符。无论是简单的计算还是复杂的数学公式,这个库都可以帮助我们实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FL1623863129

你的打赏是我写文章最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值