Ollama API调用大模型,新手开启api调用的详细教程

原文链接:如何调用 Ollama API?Ollama 本地 API 调用的详细指南

Ollama 是一个开源的大语言模型(LLM)服务平台,支持一键部署并运行 Llama、DeepSeek、Phi 等多种 AI 模型。通过 Ollama,你无需依赖云端服务,就能在自己的电脑上实现 AI 对话、推理甚至编写代码等复杂任务。本文将详细介绍如何安装 Ollama,加载模型,并实现本地 API 的调用,助你轻松打造自主的 AI 助手或应用。

一、Ollama 下载与安装

首先,前往 Ollama 的官方 GitHub。在页面下载与你的系统对应的安装包(支持 macOS、Windows 及 Linux)。

以 macOS 为例:

  1. 下载安装包,完成安装。

  2. 打开「终端」(macOS 可按 F4 搜索“终端”),输入命令测试是否安装成功:

ollama

如能正常显示命令选项,即安装无误。

二、下载和加载 AI 模型

Ollama 提供丰富的模型选择。启动终端,通过如下命令下载你感兴趣的模型。例如:

ollama run llama3.2

其它常见模型及命令如下:

模型名

命令

DeepSeek-R1

ollama run deepseek-r1

DeepSeek-R1

ollama run deepseek-r1:671b

Llama 3.2

ollama run llama3.2

Llama 3.2 Vision

ollama run llama3.2-vision

Phi 4

ollama run phi4

Mistral

ollama run mistral

Code Llama

ollama run codellama

运行命令后会自动下载模型文件(体积较大,请耐心等待,取决于网络速度和模型大小)。

下载完成后,终端会显示输入提示,即可直接与模型进行对话:

> Send a message:

三、本地对话体验

你可以在终端直接和模型互动,例如输入:

你是谁?

模型会即时响应。每次对话结束,可通过 Ctrl+D 退出,或直接关闭窗口。若日后还需对话,只需重新运行对应命令即可。

四、图形化界面(可选)

若觉得在命令行对话不便,Ollama 社区和第三方开发了多种 Web/桌面前端。你可以在 Ollama 官方插件列表中找到并选择合适的 GUI 项目,按说明进行安装配置,从而享受更友好的视觉体验。

五、Ollama API 本地调用详解

Ollama 内置 HTTP RESTful API,默认监听在 localhost:11434。你可以通过 Apifox 等工具或直接用代码访问。

1. 调试入门(以 Apifox 为例)

假设你的模型名为 llama3.2,可用如下 cURL 方式实现一次问答测试:

curl --location --request POST 'http://localhost:11434/api/generate' \
  --header 'Content-Type: application/json' \
  --data-raw '{
    "model": "llama3.2",
    "prompt": "Why is the sky blue?",
    "stream": false
}'

Apifox 创建新接口,将以上 cURL 粘贴导入,即可自动解析参数和地址。

2. 发送请求并获取响应

点击「发送」后,等待模型生成的回复。结果会直接显示在接口调试工具中。你也可以将 "stream": false 改为 true,体验流式输出(适合长文本)。

请求参数说明
  • model: 需调用的已下载模型名。

  • prompt: 输入的提示文本,即你想问的问题。

  • stream: 是否流式输出。

响应结构

通常返回如下 JSON(简化示例):

{ "model": "llama3.2", "created_at": "...", "response": "Because of Rayleigh scattering...", "done": true }

六、结合应用开发

你可以直接用 Python、JavaScript 等主流编程语言调用 Ollama API,将其集成到你的 Web 应用、聊天机器人或者自动化脚本中。例如,使用 Python:

import requests

data = {
    "model": "llama3.2",
    "prompt": "你好,AI!",
    "stream": False # 是否以流式返回(可设为 True/False)
}

response = requests.post(
    "http://localhost:11434/api/generate",
    json=data
)
print(response.json())

总结

本文全面介绍了本地部署 Ollama、下载并加载 AI 大模型以至于如何通过 API 调用模型实现问答功能的全过程。无论你是 AI 初学者还是开发者,都可以通过本指南在本地构建属于自己的智能对话体验,免除对云服务的依赖,实现数据和隐私的完全自主。

原文链接:如何调用 Ollama API?Ollama 本地 API 调用的详细指南

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值