基础任务
使用 Cli Demo 完成 InternLM2-Chat-1.8B 模型的部署,并生成 300 字小故事
进入开发机
激活环境配置
通过conda activate /root/share/pre_envs/icamp3_demo激活环境,出现(/root/share/pre_envs/icamp3_demo) 即为激活成功
Cli Demo 部署 InternLM2-Chat-1.8B 模型
创建一个目录,用于存放代码。并创建一个 cli_demo.py
。
通过 python /root/demo/cli_demo.py
来启动 Demo
生成 300 字小故事
Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型
启动一个 Streamlit 服务
在本地的 PowerShell 中输入命令,将端口映射到本地
通过浏览器访问 http://localhost:6006
来启动 Demo
进阶任务
使用 LMDeploy 完成 InternLM-XComposer2-VL-1.8B 的部署,并完成一次图文理解对话
使用 LMDeploy 完成 InternVL2-2B 的部署,并完成一次图文理解对话