1、InternLM2-Chat-1.8B 模型的部署
conda环境配置,可以从直接克隆,但是比较慢,推荐直接安装!
2、Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型
做端口映射后,将开发机本地的端口与本地的相映射。
3、LMDeploy 部署 InternLM-XComposer2-VL-1.8B 模型
小小年纪就爆显存,不学好。
1、InternLM2-Chat-1.8B 模型的部署
conda环境配置,可以从直接克隆,但是比较慢,推荐直接安装!
2、Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型
做端口映射后,将开发机本地的端口与本地的相映射。
3、LMDeploy 部署 InternLM-XComposer2-VL-1.8B 模型
小小年纪就爆显存,不学好。