如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

pip install open-interpreter

然后,执行

interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值