使用Ollama部署本地LLM:构建AI REST API的简易指南

利用Ollama本地LLM(大语言模型)搭建AI的REST API服务是一个实用的方法。下面是一个简单的工作流程。

1. 安装Ollama和LLMs

首先,在本地机器上安装Ollama和本地LLMs。Ollama可以帮助你轻松地在本地部署LLMs,并让它们更方便地处理各种任务。

安装 Ollama

Ollama安装界面

Ollama下载页面

安装应用文件

为Ollama安装LLMs

ollama pull llama3  
ollama run llama3  

下载并运行llama3

在这里插入图片描述

在本地与llama3对话

Ollama命令

可用的命令:  
  /set         设置会话变量  
  /show        显示模型信息  
  /bye         退出  
  /?, /help    帮助命令  
  
使用 "" 开始多行消息  

测试Ollama

curl http://localhost:11434/api/generate -d '{    
  "model": "llama3",    
  "prompt": "为什么天空是蓝色的?",    
  "stream": true    
}'  

如果stream设置为false,响应将是一个完整的JSON对象。

curl http://localhost:11434/api/generate -d '{    
  "model": "llama3",    
  "prompt": "为什么天空是蓝色的?",    
  "stream": false    
}'  

在这里插入图片描述

2. 设置FastAPI

接下来,设置一个Python的FastAPI应用。FastAPI是一个现代、快速(高性能)的Web框架,基于标准的Python类型提示,支持Python 3.7及以上版本。它是构建稳健高效API的理想选择。

编写FastAPI的路由和端点,以便与Ollama服务器进行交互。这个过程包括发送请求给Ollama以处理任务,比如文本生成、语言理解或其他LLM支持的AI任务。以下是一个简单的代码示例(你也可以使用 Ollama Python库 来优化代码)。

from typing import Union  
from fastapi import FastAPI  
from pydantic import BaseModel  
import json  
import requests  
  
app = FastAPI(debug=True)  
  
class Itemexample(BaseModel):  
    name: str  
    prompt: str  
    instruction: str  
    is_offer: Union[bool, None] = None  
  
class Item(BaseModel):  
    model: str  
    prompt: str  
  
urls = ["http://localhost:11434/api/generate"]  
  
headers = {  
    "Content-Type": "application/json"  
}  
  
@app.get("/")  
def read_root():  
    return {"Hello": "World"}  
  
@app.post("/chat/{llms_name}")  
def update_item(llms_name: str, item: Item):  
    if llms_name == "llama3":  
        url = urls[0]  
        payload = {  
            "model": "llama3",  
            "prompt": "为什么天空是蓝色的?",  
            "stream": False  
        }  
        response = requests.post(url, headers=headers, data=json.dumps(payload))  
        if response.status_code == 200:  
            return {"data": response.text, "llms_name": llms_name}  
        else:  
            print("错误:", response.status_code, response.text)  
            return {"item_name": item.model, "error": response.status_code, "data": response.text}  
    return {"item_name": item.model, "llms_name": llms_name}  

测试REST-API服务

curl --location 'http://127.0.0.1:8000/chat/llama3' \  
--header 'Content-Type: application/json' \  
--data '{  
  "model": "llama3",  
  "prompt": "为什么天空是蓝色的?"  
}'  

通过API发送Curl请求

API日志

3. 部署

当你对REST API的功能和性能感到满意后,可以将此服务部署到生产环境。这可能涉及将其部署到云平台、使用Docker进行容器化,或者在服务器上部署。

在这个简单的示例中,我们通过使用Ollama进行本地LLM部署并结合FastAPI构建REST API服务器,创建了一个免费的AI服务解决方案。你可以通过自己的训练数据对模型进行微调以实现定制用途(我们将在未来讨论)。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值