本地部署AI大模型?手把手教你用Ollama一招搞定

本地部署AI大模型?Ollama一招搞定,轻松使用。

Ollama是什么?

  Ollama是一个旨在简化大型语言模型本地部署和运行过程的工具123。它提供了一个轻量级、易于扩展的框架,让开发者能够在本地机器上轻松构建和管理LLMs。通过ollama,开发者可以访问和运行一系列预构建的模型,或者导入和定制自己的模型,无需关注复杂的底层实现细节。

支持的操作系统

  支持但不限于

  Windows :Windows 10及以上

  MacOS :所有MacOS

  Linux :比如Ubuntu

下载和安装Ollama

官方网站

https://ollama.com/download

下载完成后双击运行

一步一步安装完成

安装完成后,cmd输入运行 ollama

ollama

出现上述所示信息,表示安装成功!

部署大模型

名称参数命令
llama38bollama run llama3:8b
qwen0.5bollama run qwen:0.5b
qwen1.8b

ollama run qwen:1.8b

qwen4bollama run qwen:4b
qwen7bollama run qwen:7b

以qwen:1.8b为实例

cmd运行ollama run qwen:1.8b

ollama run qwen:1.8b

出现如上图片就说明成功了

常用命令

查看已安装的大模型

ollama list

运行指定大模型(xxxx是指定大模型的名称)

ollama run xxxx

删除指定大模型(xxxx是指定大模型的名称)

ollama rm xxxx

  • 9
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值