保姆级让Ollama的模型为 LM Studio所用

使用的是github上的项目Ollama LM Studio Bridge

Ollmam是一个快速部署的轻量化方案,LM Studio是一个面向桌面图形化的部署方案。

对于模型文件来说,不同框架的存放位置都是不同的,但是为了不重复下载模型。我们需要让LM studio能加载Ollama的模型。

该方法的前提是,Ollama至少已经下载过一个模型了。

如果没有,则下载:
![[Pasted image 20250311004831.png]]

选择一个,点击
![[Pasted image 20250311004858.png]]

复制拉取代码:ollama pull deepseek-r1,复制到cmd或者PowerShell中,等待下载完成。

安装 Windows chocolatey 默认安装在C盘。

如果想更换下载路径,需要修改环境变量

$env:ChocolateyInstall = 'D:\Chocolatey'
[Environment]::SetEnvironmentVariable('ChocolateyInstall', $env:ChocolateyInstall, 'Machine')

可以在这里查看环境变量是否修改完成。会生成两个变量:ChocolateyInstallChocolateyLastPathUpdate
![[Pasted image 20250311005259.png|300]]

也可以使用P{owerToys查看。

安装:

Set-ExecutionPolicy Bypass -Scope Process -Force
[System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072
iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))

安装jp库

choco install jq

新建一个文件夹Github用于存放从github拉取的文件。
cd至文件夹,拉取命令

cd G:\github
git clone https://github.com/eelbaz/ollama-lmstudio-bridge.git

如果git拉取有问题,也可以直接在官网上下载压缩包,解压到相应文件夹下。

执行sh文件。注意,这里最好在git bash下运行。运行结束后,会显示链接地址

chmod +x ollama-lmstudio-bridge.sh
./ollama-to-lmstudio-bridge.sh #默认设置,地址为lm studio默认模型位置

./ollama-to-lmstudio-bridge.sh [OPTIONS] #可选择的功能

这里注意,拉取的文件名和直接下载解压的文件名有所不同,注意修改

可选择的功能如下,来自github

  • -h, --help: 显示帮助信息
  • -v, --verbose: 启用详细输出
  • -q, --quiet: 抑制非必要产出
  • -s, --skip-existing: 跳过现有的符号链接,而不是覆盖
  • -d, --dir DIR: 在LM Studio中指定自定义模型目录
  • -o, --ollama-dir: 指定Ollama模型目录(适用于系统范围安装)
  • --version: 显示版本信息

脚本需要运行一段时间才有显示,同时会显示链接地址。将lm studio模型地址切换过去即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值