部署 `InternLM2-Chat-1.8B` 模型进行智能对话:
1、配置环境,包括torch、hugging-face等包
2、从hugging-face-hub下载模型
3、启动对话demo
4、终端交互进行故事创作
问题:模型加载时间较长,回车导致demo异常退出和显存异常占用,通过kill对应python线程解决
部署 `InternLM2-Chat-1.8B` 模型进行智能对话:
1、配置环境,包括torch、hugging-face等包
2、从hugging-face-hub下载模型
3、启动对话demo
4、终端交互进行故事创作
问题:模型加载时间较长,回车导致demo异常退出和显存异常占用,通过kill对应python线程解决