如何在mac电脑上快速搭建一个大模型?并跟它聊天

目录

一、安装ollama

1.ollama是什么?

2.怎么安装?

二、下载并运行大模型

1.ollama支持哪些大模型?

2.下载并运行qwen大模型

3.使用REST API调用大模型

三、安装web ui

四、运行效果


一、安装ollama

1.ollama是什么?

        ollama是一个可以帮助用户快速在本地运行开源大模型的开源平台,可以运行如 Llama 3, Phi 3, Mistral, Gemma等其他大模型。官网地址:https://ollama.com/

2.怎么安装?

        进入官网点击download选择macOS版下载,下载后会有一个Ollama-darwin.zip压缩包,解压并安装,安装完之后桌面有个Ollama.app,点击打开ollama就运行起来了。

二、下载并运行大模型

1.ollama支持哪些大模型?

        ollama官网右上角有个models点击进入里面显示目前支持的一些大模型,也可以进行搜索自己想找的模型。比如Llama3、Llama2、qwen等等。

2.下载并运行qwen大模型

        这里考虑使用中文,所以选择qwen模型。qwen是阿里云基于transformer的一系列大型语言模型,在大量数据上进行预训练,包括网络文本、书籍、代码等。参数范围从0.5B到110B。

        在ollama上搜索qwen根据自己电脑配置选择相应参数,这里选择qwen:7b,大概4.5G,运行此模型mac电脑内存至少8G。复制右边ollama运行模型命令:

ollama run qwen:7b

        ollama运行之后,打开终端terminal输入以上命令,如果已经下载过该模型,ollama会自动运行,如果没有下载,ollama会先下载然后运行该模型,等待一段时间模型下载并运行成功,页面显示如下:

这时候可以在终端与它聊天对话

3.使用REST API调用大模型

        Ollama有一个用于运行和管理模型的REST API。具体可参考:https://github.com/ollama/ollama/blob/main/docs/api.md,这里使用postman演示一下。

curl http://localhost:11434/api/generate -d '{
    "model": "qwen:7b",
    "prompt": "为什么光的速度比雷声快?",
    "stream": false
}'


三、安装web ui

        虽然上面已经可以跟本地搭建的大模型聊天,但交互还不太友好。别急,下面介绍一个开源聊天UI——chatbot-ollama。github地址:https://github.com/ivanfioravanti/chatbot-ollama,部署成功后就可以像跟chatgpt一样页面进行聊天。如下图:

使用以下docker命令进行部署。如果没有安装docker可点击(https://www.docker.com/products/docker-desktop/)进行安装

docker run -p 3000:3000 ghcr.io/ivanfioravanti/chatbot-ollama:main

部署成功以后浏览器输入:http://localhost:3000 即可


四、运行效果

  • 21
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值