一、基础作业部分
-
配置lmdeploy运行环境,下载internlm-chat-1.8b模型



-
以命令行方式与模型对话
二、进阶作业 -
设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。(优秀学员必做)

本文介绍了如何配置LMDeploy环境,包括下载并以命令行方式操作internlm-chat-1.8b模型,进阶任务涉及KVCache优化、W4A16量化、APIServer启动、多种客户端对话及Python集成,最后挑战视觉多模态模型llavagradiodemo的使用。



二、进阶作业 
437
1862
726

被折叠的 条评论
为什么被折叠?