LM Studio 教程:通过暴露本地端口实现局域网内客户端调用(LM Studio 作为本地 LLM API 服务器)

在这里插入图片描述


links:

https://lm-studio.cn/docs/api

LM Studio 可以像 Ollama 一样通过暴露本地端口实现局域网内客户端调用。以下是具体实现方式和技术细节:

1. 核心功能支持

LM Studio 的 开发者选项卡 提供了完整的本地 API 服务器功能,支持以下配置:

  • 端口暴露:默认使用 1234 端口,可自定义修改(需注意端口冲突问题)3
  • 局域网访问:勾选 “在局域网内提供服务” 选项后,服务器会监听所有网络接口(0.0.0.0),允许其他设备通过 IP 地址访问34
  • 跨域支持:启用 CORS 后,可对接网页应用或其他客户端工具3

2. 配置步骤

实现局域网调用的具体操作流程:

  1. 启动服务端

    • 在 LM Studio 的 “开发者” 选项卡中选择模型
    • 勾选 “在局域网内提供服务” 并设置端口(如 1234)3
    • 点击 “启动服务” 按钮,控制台会显示运行日志和访问地址(如 http://<本机IP>:12343
  2. 客户端调用

    • 其他设备可通过以下方式访问:
      # 示例:使用 curl 调用聊天接口
      curl http://<本机IP>:1234/v1/chat/completions \
        -H "Content-Type: application/json" \
        -d '{"messages": [{"role": "user", "content": "你好"}], "model": "<模型名称>"}'
      
    • 支持 OpenAI 兼容的 API 格式(包括 /v1/chat/completions/v1/completions 等端点)13
  3. 防火墙配置(Windows 系统):

    • 需在防火墙入站/出站规则中开放对应端口(如 1234)5

3. 与 Ollama 的对比

特性LM StudioOllama
协议兼容性OpenAI API 兼容自有 API 格式
界面操作图形界面一键配置需命令行操作
多模型支持需手动加载不同模型支持 Modelfile 动态切换
日志管理内置日志记录(可记录提示与响应)3需自行配置日志工具

4. 典型应用场景

  • 多人协作开发:团队成员通过局域网共享同一模型服务2
  • 跨设备调用:手机/平板通过浏览器或 Open WebUI 访问本地模型2
  • 自动化流程:对接 VS Code 插件或其他 AI 工具链1

注意:如果遇到连接问题,需检查以下三点:

  1. LM Studio 服务端是否已勾选局域网选项
  2. 防火墙是否开放对应端口
  3. 客户端是否使用正确的 IP 地址(可通过 ipconfig/ifconfig 查看本机局域网 IP)35
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学亮编程手记

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值