【LLM】二、python调用本地的ollama部署的大模型

系列文章目录

往期文章:

【LLM】一、利用ollama本地部署大模型


目录

文章目录

前言

一、ollama库调用

二、langchain调用 

三、requests调用

四、相关参数说明:

总结


前言

        本地部署了大模型,下一步任务便是如何调用的问题,实际场景中个人感觉用http请求的方式较为合理,本篇文章也将通过http请求的方式来调用我们本地部署的大模型,正文开始。


一、ollama库调用

参考文档:ollama的python库调用

注意,这里的ollama不是我们第一篇安装的那个Ollama!!!!不要搞混

1、环境准备:

pip install ollama

2、调用示例:

  •      如果你都是按照默认设置安装的Ollama,即host
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值