【AI-本地部署大模型】Centos虚拟机部署MaxKB、Ollama【基于大语言模型的知识库问答系统】

Ollama

  • Ollama 是一个开源项目,旨在让用户能够在本地计算机上轻松运行大型语言模型(LLM)。通过 Ollama,用户可以部署和运行多种不同的语言模型,如 Llama 3.1、Phi 3、Mistral、Gemma 2 等,并且可以根据需要定制和创建自己的模型。
  • 官网https://ollama.com/
  • 开源地址https://github.com/ollama/ollama

特点

  • 支持多种模型:Ollama 支持多种大型语言模型,这使得用户可以根据需求选择最合适的模型来运行。
  • 定制化选项:用户不仅能够运行现有的模型,还可以对其进行定制,以适应特定的应用场景或数据集。
  • 跨平台兼容性:Ollama 可以在 macOS、Linux 和 Windows 上运行(Windows 版本目前处于预览阶段)。
  • 易于安装和使用:Ollama 提供了简便的安装流程,让用户能够快速开始使用。
  • Web 用户界面:除了命令行工具外,Ollama 还提供了一个 web 用户界面,便于管理和交互。
  • 数据隐私:由于模型是在本地运行,所以用户的对话和数据不会发送到云端,从而保护了隐私。
  • API 接口:Ollama 提供了类似于 OpenAI 的 API 接口,方便开发者集成到自己的应用程序中。

Centos部署

docker部署

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

在这里插入图片描述

  • 能访问表示成功,注意机器防火墙端口、云服务器开通端口等
    在这里插入图片描述

脚本安装

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述
在这里插入图片描述

通义千问包下载

  • 访问地址:https://ollama.com/

  • 搜索你想部署的大模型包,这里以通义千问为例
    在这里插入图片描述

  • 进行包下载:ollama run qwen
    在这里插入图片描述

MaxKB

部署

docker部署

  • 执行命令部署:
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb
  • 进行拉取
    在这里插入图片描述
    在这里插入图片描述

控制台

在这里插入图片描述

http://目标服务器 IP 地址:目标端口
默认登录信息
用户名:admin
默认密码:MaxKB@123…

配置

模型设置

在这里插入图片描述

  • 选择模型供应商
    在这里插入图片描述
### 部署大规模语言模型CentOS 8.5 #### 准备工作 为了确保能够顺利部署Ollama、DeepSeek R1以及OpenWebUI,在开始之前需确认操作系统版本。通过`cat /etc/os-release`可以查看当前系统的发行版信息[^1]。 #### 安装依赖库 对于大型语言模型的运行,通常会依赖一系列的基础软件包和支持库。建议先更新系统并安装必要的开发工具: ```bash sudo dnf update -y && sudo dnf groupinstall "Development Tools" -y ``` 接着安装Python及其相关组件,因为大多数现代AI框架都是基于Python构建的: ```bash sudo dnf install python3-pip python3-devel -y ``` #### 设置GPU支持(如果适用) 如果有NVIDIA GPU可用,则应考虑设置CUDA Toolkit来加速计算性能。这一步不是强制性的,但对于提高处理速度非常重要。可以通过官方渠道获取适合的操作系统版本的CUDA驱动程序,并按照指引完成安装。 #### Ollama 的安装与配置 针对Ollama的具体安装方法取决于其发布的形态。假设是以源码形式发布的话,可以从GitHub仓库克隆项目代码至服务器端: ```bash git clone https://github.com/user/repo.git ollama_project cd ollama_project pip3 install --upgrade pip setuptools wheel pip3 install . ``` 注意替换上述链接为实际项目的URL地址。 #### DeepSeek R1 的安装与配置 同样地,对于DeepSeek R1而言,也需要遵循类似的流程。这里假定提供了预编译二进制文件的形式分发给用户: 1. 下载对应平台架构下的最新稳定版压缩包; 2. 解压后移动到合适位置如 `/opt/deepseek_r1`; 3. 添加执行权限并对环境变量做适当调整以便全局调用该应用。 #### OpenWebUI 的安装与配置 考虑到OpenWebUI可能是一个图形界面的应用程序,因此除了常规的服务启动外,还需要额外关注桌面环境或远程访问方式的选择。一种简单的方法是利用Xfce4作为轻量级窗口管理器配合VNC服务实现无头模式下可视化操作体验: ```bash sudo dnf install tigervnc-server xfce4 -y vncserver :1 -geometry 1920x1080 -depth 24 echo 'xfce4-session' > ~/.vnc/xstartup chmod +x ~/.vnc/xstartup ``` 之后就可以根据个人喜好去定制化这些组件之间的交互逻辑了。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rundreamsFly

达者不再兼济天下,却怪穷者独善

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值