完成以下任务,并将实现过程记录截图:
- 配置lmdeploy运行环境
- 下载internlm-chat-1.8b模型
- 以命令行方式与模型对话
具体作业完成情况如下:
一、配置lmdeploy运行环境
创建开发机,创建conda环境
二、下载internlm-chat-1.8b模型
三、以命令行方式与模型对话
四、使用LMDeploy与模型对话
五、使用LMDeploy与模型对话
将设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。
现存的使用量明显下降了,从7856下降到6192.