OpenUI在windows下部署&使用

本文介绍了OpenUI,一个基于Python的AI对话平台,支持多种AI模型,可通过聊天描述UI设计并实时渲染。此外,还讲解了如何安装OpenUI及使用Ollama部署和切换预建或自定义的LLM模型进行本地交互。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

OpenUI

OpenUI是一个基于Python的AI对话平台,支持接入多种AI模型。

通过聊天的方式来进行UI设计,你可以通过文字来描述你想要的UI界面,OpenUI可以帮你实时进行渲染出效果

安装OpenUI

这里预设你的电脑上已安装gitPythonpip,如果没有安装,请先安装。

# 拉取代码
git clone https://github.com/wandb/openui

# 进入backend目录
cd openui/backend

# 安装依赖
pip install .

# 这里必须设置OPENAI_API_KEY;
# 如果你要使用OpenAI的模型,可以从https://platform.openai.com/api-keys 获取密钥
# 如果是要使用其他模型(电脑内存要大于16G),OPENAI_API_KEY可以设置为:xxx
export OPENAI_API_KEY=xxx

# 启动服务
python -m openui

启动后,访问 http://localhost:7878/ 即可使用。

在这里插入图片描述

在上面的步骤中,我们已经安装好了OpenUI,但是如果我们要使用其他模型,

如:llava、gemma等,我们接下来我们来安装&使用Ollama吧。

Ollama

ollama是一个旨在简化大型语言模型本地部署和运行过程的工具。

它提供了一个轻量级、易于扩展的框架,让开发者能够在本地机器上轻松构建和管理LLMs。

通过ollama,开发者可以访问和运行一系列预构建的模型,或者导入和定制自己的模型,无需关注复杂的底层实现细节。

安装&使用参考这个篇文章

安装llava模型

安装ollama后,打开命令行,输入:

ollama pull llava

安装llava后,在OpenUI中更改使用的模型,可以通过点击左上角的模型选择来切换模型。

在这里插入图片描述
在这里插入图片描述

OpenUI使用

在AI聊天窗口中,你可以输入你的需求,OpenUI会实时渲染出效果。

生成以后如果对页面不满意,还可以对指定页面元素进行单独修改

在这里插入图片描述
在这里插入图片描述

最后对生成好的页面,点击"复制/下载"按钮,即可保存代码

### 部署 Open WebUI 和 Deepseek #### 使用 Docker 进行快速部署 对于希望简化配置流程的用户来说,采用 Docker 是一种高效的方式。通过 Docker 容器化技术可以在本地轻松设置并运行 Open WebUI 及其集成的大规模预训练模型 Deepseek。 为了实现这一目标,在 Windows 平台上需先确保已安装 Docker Desktop 应用程序[^2]。完成安装后,可以通过命令行工具拉取所需的镜像文件来启动服务: ```bash docker pull ollama/deepseek-r1:latest docker run -p 3000:3000 ollama/deepseek-r1:latest ``` 上述指令会自动下载最新版本的 `deepseek` 模型,并将其绑定到主机端口 3000 上。此时,只需打开任意现代浏览器并导航至 URL `http://localhost:3000/` 即可查看加载完毕后的 Deepseek 大模型界面[^1]。 #### 手动构建 Conda 环境方式 另一种更为灵活的方法涉及手动创建 Python 虚拟环境以及单独安装必要的软件包。这种方法适合那些想要更深入控制开发环境或自定义组件的人群。 首先,获取 Anaconda 发行版作为管理工具链的基础: ```bash curl -O https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe start Miniconda3-latest-Windows-x86_64.exe ``` 接着建立一个新的名为 `open-webui` 的 Conda 环境,并激活该环境用于后续操作: ```bash conda create -n open-webui python=3.11 conda activate open-webui ``` 之后便是安装特定于项目的依赖项——即 Open WebUI 接口本身及其所需库: ```bash pip install open-webui ``` 最后一步就是启动服务器进程,使应用程序能够监听指定网络接口上的请求,默认情况下这将是 HTTP 协议下的 8080 端口号: ```bash open-webui serve ``` 现在应该能够在浏览器中通过访问 `http://localhost:8080/` 来体验由本地计算机托管的服务实例[^3]。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我码玄黄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值