大模型Ollama

Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。Ollama 是一个基于 Go 语言开发的本地大模型运行框架!它可以帮助用户在本地快速运行大模型

以下是其主要特点和功能概述:

  • 简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
  • 轻量级与可扩展:作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。
  • API支持:提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。
  • 预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。

 服务器配置要求

环境最低配置推荐配置
测试2核 2GB2核 4GB
100w 组向量4核 8GB 50GB4核 16GB 50GB
500w 组向量8核 32GB 200GB16核 48GB 200GB
1000w 组向量16核 48GB 200GB32核 64GB 500GB

安装 Docker

下载 Docker 并安装

安装 Ollama

下载 Ollama 并安装

下载 Chat 模型

  • 4b 模型要 3GB内存
  • 7b 模型要 8GB 内存
  • 14b 模型要 16GB 内存
  • 70b 模型要 64GB 内存
下载模型
ollama pull qwen:7b
测试API请求

等模型下载和安装好后,执行下面的命令,测试API请求是否成功

Windows下执行:
curl "http://localhost:11434/api/chat" ^
--data "{""model"": ""qwen:7b"", ""messages"": [{""role"": ""user"", ""content"": ""你是谁""}], ""temperature"": 0.1, ""stream"": false}"

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值