Ollama在MacOS、Linux本地部署千问大模型及实现WEB UI访问

一、前言

阿里通义千问发布了Qwen2,提供了0.5B~72B的量级模型,在​​Ollama官网​​可以搜索qwen2查看,本文提供了Ollama的下载(在线/离线安装)、Ollama运行模型、使用WebUI连接模型以及页面简单配置。
请添加图片描述

二、实现效果

  1. 控制台直接提问
    请添加图片描述

  2. Web界面访问
    请添加图片描述

三、实现步骤

  1. Windows、MacOS、Linux安装Ollama(我这里只在Macos、Linux上进行了安装)
  2. 使用Ollama拉取、运行模型(这步完成可以使用控制台、Api提问)
  3. 用Web UI实现可视化提问,方便管理。

四、开始实现

1.1 安装

请添加图片描述
首先我们需要在​​Ollama官网​​​点击“Download”按钮,选择适合系统的版本点击下载,但由于网络问题,会非常慢,建议去​​他的github​​上下载release。

请添加图片描述

可以看见Ollama还是非常活跃的,在这里选择合适的版本下载安装。
请添加图片描述

Mac版本下载后放到应用文件夹内,打开后根据提示即可完成安装,Linux的安装稍微麻烦点,官方提供的命令是:
curl https://ollama.ai/install.sh | sh
就是下载install.sh并执行,脚本还是先下载好安装包再进行安装,网络问题会非常慢或者下载失败,所以我们这里需要把脚本使用下面脚本下载下来:
wget https://ollama.ai/install.sh
vim编辑这个脚本总共需要修改两个地方:
• 注释下载链接(install.sh的第66行左右)

status "Downloading ollama..."
#curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"

• 修改Ollama安装目录(install.sh的第73行左右)

status "Installing ollama to $BINDIR..."
$SUDO install -o0 -g0 -m755 -d $BINDIR
#$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
$SUDO install -o0 -g0 -m755 ./ollama-linux-amd64  $BINDIR/ollama

以上步骤做好,就可以进入到install.sh脚本所在目录使用sh ./install.sh开始安装了,安装完,输入如图ollama -v出现版本代表安装成功。

1.2 模型拉取、运行

文章开头提到的在官网找到qwen2,选择需要的版本,如下图选择了1.5b版本,右边对应着执行命令,复制命令在MacOS或者Linux终端中执行。
请添加图片描述

这里如果没有模型会自动拉取模型,拉取速度非常快,拉取完后显示“>>> Send a message (/? for help)”代表可以直接输入问题进行提问了。
请添加图片描述

1.3 用Web UI实现可视化提问。

本文使用docker运行web界面,docker的安装这里不做过多赘述,终端中执行:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker会自动拉取镜像运行容器,运行成功后访问http://127.0.0.1:3000进入界面,首次注册登录的是管理员账号,可以设置成中文,也可以在设置中配置后面注册的默认角色。

请添加图片描述
请添加图片描述
需要注意的是需要选择提问的模型,在进行提问。

五、总结

总体还是比较简单的,更高阶的玩法,看小伙伴的反馈,后面更新比如自定义智能体、训练等。

### 部署 Ollama 和 Open WebUI 的环境准备 为了在本地环境中成功部署Ollama和Open WebUI,确保计算机满足最低硬件要求并已安装必要的软件依赖项[^1]。 - **操作系统**: 支持Windows、macOS以及Linux。 - **Python版本**: 推荐使用Python 3.8以上版本。 - **其他工具**: 安装Docker以简化容器化应用的管理和部署过程;Git用于克隆项目仓库。 ### 下载与配置 Ollama 及其关联组件 获取最新版Ollama源码或二进制文件,并按照官方文档指示完成初步设置工作。对于希望快速上手的新用户来说,利用预构建镜像可能是最便捷的方式之一。 ```bash git clone https://github.com/ollama-project/ollama.git cd ollama docker-compose up -d --build ``` 上述命令会自动拉取所需资源并启动服务端口监听于`localhost:7860`处等待进一步指令。 ### 构建及运行 Open WebUI 应用程序 接着转向前端部分——即图形化的交互平台建设: #### 获取代码库 前往指定页面下载对应分支下的压缩包或是直接运用Git客户端执行如下操作来同步远程仓库至本地磁盘内: ```bash git clone https://github.com/open-webui/webui.git ``` #### 修改默认参数设定 编辑位于根目录下名为`.env.example`的环境变量定义文件(可根据实际情况调整),重命名为`.env`以便生效: ```plaintext PORT=3000 OLLAMA_API_URL=http://localhost:7860/api/v1/ SECRET_KEY=some_random_string_here DEBUG=True ALLOWED_ORIGINS=localhost,127.0.0.1 ``` 此处特别注意API接口路径需指向先前已经激活的服务实例位置[^2]。 #### 启动Web应用程序 确认所有前置条件均已妥善处理完毕之后,切换到项目所在的工作空间里边去触发下列脚本从而开启HTTP服务器进程供外部访问连接之用: ```bash npm install && npm run dev ``` 此时应当能够在浏览器中通过访问`http://localhost:3000`看到预期中的登陆界面了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值