如何在局域网中调用服务器的大模型呢?

记录一下大模型的相关部署过程

步骤非常简单可靠:

我是使用ollama进行服务器端的部署。服务器端的系统版本是ubuntu18.04。

服务器无法直接下载ollama

直接用官方的方式先下载脚本,再运行那个脚本的方法下载ollama的时候,遇到了下载速度慢,进度卡住了超时等困难。

尽管我搜到了国内如何下载ollama的一些方法,例如修改下载脚本等。但是我觉得这些方法的实操难度有点高。

经过我的搜索之下,我发现snap软件库中居然有ollama的软件包。所以就直接使用snap下载ollama。

参考链接:用snap下载ollama

可以直接使用ollama下载对应的模型

不过呢,这个ollama的版本不是很高的缘故,所以llama3.1下载了也不能使用,但是可以使用llama3。

构造局域网

这一步我是直接使用一个路由器,让客户端和服务器共同连在同一个wifi下面,这样他们之间就能相连了。

客户端电脑和服务端电脑能否互连可以尝试相互Ping一下对方的IP地址

服务器开放api

使用非常简单的Fastapi库,可以实现简单的api的请求

使用langchain快速构造大语言模型的Pipeline以及连接ollama server 

如有更多问题,可以在评论留下。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值