【书生·浦语大模型实战营】第2节:轻松玩转书生·浦语大模型趣味 Demo(作业版)

目录

作业截图展示

基础作业

进阶作业

详细操作过程

1. InternLM-Chat-7B 智能对话 Demo

1.1 环境准备

1.2 模型下载

1.3 代码准备

1.4 终端运行

1.5 web demo 运行

2. Lagent 智能体工具调用 Demo

2.1 Lagent 安装

2.2 修改代码

2.3 demo运行

3. 浦语·灵笔图文理解创作 Demo

3.1 环境准备

3.2 模型下载

3.3 代码准备

3.4 demo运行


作业截图展示

基础作业

1. 使用 InternLM-Chat-7B 模型生成 300 字的小故事(截图)

2. 熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地(截图下载过程)

进阶作业

1. 完成浦语·灵笔的图文理解及创作部署(截图)

2. 完成 Lagent 工具调用 Demo 创作部署(截图)

详细操作过程

1. InternLM-Chat-7B 智能对话 Demo

1.1 环境准备

使用 A100(1/4) 的配置,镜像选择 Cuda11.7-conda,如下图所示:

进入开发机后,在终端输入bash进入conda环境:

从本地克隆一个已有的 pytorch 2.0.1 的环境,执行以下命令:

bash /root/share/install_conda_env_internlm_base.sh internlm-demo

环境安装好后,使用conda activate internlm-demo激活,在环境中安装运行demo所需要的依赖:

# 升级pip
python -m pip install --upgrade pip

pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1

1.2 模型下载

从share目录中下载InternLM模型:

1.3 代码准备

首先 clone 代码,在 /root 路径下新建 code 目录,然后切换路径, clone 代码,并切换 commit 版本:

将 /root/code/InternLM/web_demo.py 中 29 行和 33 行的模型更换为本地的 /root/model/Shanghai_AI_Laboratory/internlm-chat-7b

1.4 终端运行

在 /root/code/InternLM 目录下新建一个 cli_demo.py 文件,填入以下代码:

然后在终端运行命令python /root/code/InternLM/cli_demo.py,即可体验 InternLM-Chat-7B 模型的对话能力。对话效果如下所示:

1.5 web demo 运行

切换到 VScode 中,运行 /root/code/InternLM 目录下的 web_demo.py 文件,输入以下命令后,将端口映射到本地。在本地浏览器输入 http://127.0.0.1:6006 即可。

本地端口映射命令

ssh -CNg -L 6006:127.0.0.1:6006 root@ssh.intern-ai.org.cn -p xxxxx

2. Lagent 智能体工具调用 Demo

2.1 Lagent 安装

首先切换路径到 /root/code 克隆 lagent 仓库,并通过 pip install -e . 源码安装 Lagent

2.2 修改代码

修改/root/code/lagent/examples/react_web_demo.py

2.3 demo运行

3. 浦语·灵笔图文理解创作 Demo

3.1 环境准备

安装依赖包:

pip install transformers==4.33.1 timm==0.4.12 sentencepiece==0.1.99 gradio==3.44.4 markdown2==2.4.10 xlsxwriter==3.1.2 einops accelerate

3.2 模型下载

3.3 代码准备

在 /root/code   git clone InternLM-XComposer 仓库的代码

3.4 demo运行

在终端运行以下代码:

python examples/web_demo.py  \
    --folder /root/model/Shanghai_AI_Laboratory/internlm-xcomposer-7b \
    --num_gpus 1 \
    --port 6006
 

  • 16
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值