要查看 vLLM 正在运行的模型,可以通过以下几种方法进行检查: 方法 一:通过 vLLM 的 API 查询 vLLM 提供了 OpenAI 兼容的 API,你可以发送一个简单的请求来检查服务状态或模型信息。 使用 /models 端点(如果支持): curl http://localhost:8000/v1/models 这会返回类似以下的信息: { "object": "list", "data"