使用的是github上的项目Ollama LM Studio Bridge
Ollmam是一个快速部署的轻量化方案,LM Studio是一个面向桌面图形化的部署方案。
对于模型文件来说,不同框架的存放位置都是不同的,但是为了不重复下载模型。我们需要让LM studio能加载Ollama的模型。
该方法的前提是,Ollama至少已经下载过一个模型了。
如果没有,则下载:
选择一个,点击
复制拉取代码:ollama pull deepseek-r1
,复制到cmd或者PowerShell中,等待下载完成。
安装 Windows chocolatey 默认安装在C盘。
如果想更换下载路径,需要修改环境变量
$env:ChocolateyInstall = 'D:\Chocolatey'
[Environment]::SetEnvironmentVariable('ChocolateyInstall', $env:ChocolateyInstall, 'Machine')
可以在这里查看环境变量是否修改完成。会生成两个变量:ChocolateyInstall
和ChocolateyLastPathUpdate
也可以使用P{owerToys查看。
安装:
Set-ExecutionPolicy Bypass -Scope Process -Force
[System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072
iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))
安装jp库
choco install jq
新建一个文件夹Github用于存放从github拉取的文件。
cd至文件夹,拉取命令
cd G:\github
git clone https://github.com/eelbaz/ollama-lmstudio-bridge.git
如果git拉取有问题,也可以直接在官网上下载压缩包,解压到相应文件夹下。
执行sh文件。注意,这里最好在git bash下运行。运行结束后,会显示链接地址
chmod +x ollama-lmstudio-bridge.sh
./ollama-to-lmstudio-bridge.sh #默认设置,地址为lm studio默认模型位置
./ollama-to-lmstudio-bridge.sh [OPTIONS] #可选择的功能
这里注意,拉取的文件名和直接下载解压的文件名有所不同,注意修改
可选择的功能如下,来自github
-h, --help
: 显示帮助信息-v, --verbose
: 启用详细输出-q, --quiet
: 抑制非必要产出-s, --skip-existing
: 跳过现有的符号链接,而不是覆盖-d, --dir DIR
: 在LM Studio中指定自定义模型目录-o, --ollama-dir
: 指定Ollama模型目录(适用于系统范围安装)--version
: 显示版本信息
脚本需要运行一段时间才有显示,同时会显示链接地址。将lm studio模型地址切换过去即可。