1. 引入
2024年7月底又上演了大模型疯狂内卷,23号Llama3.1-405B发布,性能已经接近GPT4;24号Mistral Large 2发布,只用了123B的参数,就在代码、推理、数学领域又超过了Llama3.1-405B。
并且,Mistral-Large-Instruct-2407
官方就通告支持中文,这个也很少见。而且在通用能力测评中,也表现不错。
那么,如何部署使用Mistral-Large-Instruct-2407
呢?有没有什么坑?
2. vllm部署方法
经笔者实测,使用4张A800,才能将Mistral-Large-Instruct-2407
跑起来,具体配置方法如下所示:
CUDA_VISIBLE_DEVICES=0,1,2,3 python -m vllm.entrypoints.openai.api_server \
--model /data/models/Mistral-Large-Instruct-2407/ \