CogVLM & CogAgent模型部署_A4

   
 

     CogVLM & CogAgent       下载地址                                                                                                                  

CogVLM & CogAgent 的 Github 官方仓库:https://github.com/THUDM/CogVLM

CogVLM & CogAgent体验地址

只是完成传统CV任务中例如目标检测定位, VQA 任务,我们CogVLM模型就可以胜任任务

需要完成多模态的指令任务,例如 跨模态指令图文指导工具调用任务,我们推荐使用CogAgent模型

如下测试:

   SwanHub      模型下载                                                始智AI社区   

   OpenXLab    模型下载                                                ModelScope 魔塔社区                                                 

   HuggingFace 社区

源码安装

  • 从 github 下载源码

git clone https://github.com/THUDM/CogVLM.git

  • 从 Swanhub 下载源码

git clone https://swanhub.co/ZhipuAI/CogVLM.git

开发者可以通过以下方式下载模型文件

  • 下载模型文件前请先确保`git lfs`命令已安装,安装教程请参考这里git-lfs

  • 模型文件已上传至 Huggingface, Modelsope , SwanHub 三个平台,用户可以快速安装模型。

  • 若使用 Huggingface 下载模型

git lfs install
# CogVLM
git clone https://huggingface.co/THUDM/cogvlm-chat-hf.git
# CogAgent
git clone https://huggingface.co/THUDM/cogagent-chat-hf.git

  • 若使用 Modelscope 下载模型

git lfs install
# CogVLM
git clone https://www.modelscope.cn/ZhipuAI/cogvlm-chat.git
# CogAgent
git clone https://www.modelscope.cn/ZhipuAI/cogagent-chat.git

  • 若使用 SwanHub 下载模型

git lfs install
# CogVLM
git clone https://swanhub.co/ZhipuAI/cogvlm-chat.git
# CogAgent
git clone https://swanhub.co/ZhipuAI/cogagent-chat-hf.git

安装依赖

使用 pip 安装依赖:

cd CogVLM
pip install -r requirements.txt
python -m spacy download en_core_web_sm

如果配置不满足最低配置,你可以访问环境配置和检查获取更多信息

运行demo

使用我们提供的命令行交互来完成命令行与 CogAgent & CogVLM 的对话。

python basic_demo/cli_demo_hf.py中运行代码

# CogAgent
python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16

# CogVLM
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

如果你使用的是sat模型,请使用cli_demo_sat.py来完成这个步骤

# CogAgent
python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16

# CogVLM
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

运行 WebDemo (使用官方在线DEMO)

在本仓库中,我们为开发者提供了一个可以直接运行的完整 Web Demo。

用户可以直接在Web Demo中可视化的与模型进行交互。

启动代码

首先,按照要求下载必须的配置。

pip install -r composite_demo/requirements.txt

接着,在composite_demo/client.py中将修改以下代码

# 将这两行替换为你模型的实际位置
MODEL_PATH = os.environ.get('MODEL_PATH', 'your cogagent-chat-hf path')
TOKENIZER_PATH = os.environ.get('TOKENIZER_PATH', 'your vicuna-7b-v1.5 path')

接着,运行代码

 streamlit run composite_demo/main.py

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

山山而川_R

谢谢鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值