浦语·灵笔图文理解创作 Demo

本文详细介绍了如何在InternStudio中使用A100显卡配置和部署InternLM-xcomposer-7b模型进行图文理解创作的Demo,包括环境设置、依赖包安装、模型下载和代码执行过程。遇到问题时,还提供了代码修改建议以确保正常运行。
摘要由CSDN通过智能技术生成

本小节我们将使用 InternStudio 中的 A100(1/4) * 2 机器和 internlm-xcomposer-7b 模型部署一个图文理解创作demo

1.环境准备

首先在 InternStudio 上选择 A100(1/4)*2 的配置,详情见:轻松玩转书生·浦语大模型internlm-demo 配置验证过程-CSDN博客

显卡改成:A100(1/4)*2配置

进入 conda 环境之后,使用以下命令从本地克隆一个已有的pytorch 2.0.1 的环境

/root/share/install_conda_env_internlm_base.sh xcomposer-demo

然后使用以下命令激活环境

conda activate xcomposer-demo

接下来运行以下命令,安装 transformersgradio 等依赖包。请严格安装以下版本安装!

pip install transformers==4.33.1 timm==0.4.12 sentencepiece==0.1.99 gradio==3.44.4 markdown2==2.4.10 xlsxwriter==3.1.2 einops accelerate

2 模型下载

InternStudio平台的 share 目录下已经为我们准备了全系列的 InternLM 模型,所以我们可以直接复制即可。使用如下命令复制:

mkdir -p /root/model/Shanghai_AI_Laboratory
cp -r /root/share/temp/model_repos/internlm-xcomposer-7b /root/model/Shanghai_AI_Laboratory

3 代码准备

在 /root/code git clone InternLM-XComposer 仓库的代码

cd /root/code
git clone https://gitee.com/internlm/InternLM-XComposer.git
cd /root/code/InternLM-XComposer
git checkout 3e8c79051a1356b9c388a6447867355c0634932d  # 最好保证和教程的 commit 版本一致

4 Demo 运行

在终端运行以下代码

python examples/web_demo.py --folder /root/model/Shanghai_AI_Laboratory/internlm-xcomposer-7b --num_gpus 1 --port 6006

说明:这里 num_gpus 1 是因为InternStudio平台对于 A100(1/4)*2 识别仍为一张显卡。但如果有使用两张 3090 来运行此 demo,仍需将 num_gpus 设置为 2 

运行中报错。按要求处理即可。

修改web_demo.py中第1127行,修改后代码,可以正常运行

demo.launch(share=True, server_name="0.0.0.0", server_port=6006,root_path=f'/proxy/6006')

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值