最简单的本地化大模型部署教程

要实现本地化部署的AI大模型,支持离线访问,下面是详细的操作步骤:
环境准备
硬件要求
高性能的GPU(如NVIDIA A100, V100等)
至少64GB RAM
大容量高速存储(至少1TB SSD)
高速互联网连接(用于初始设置和更新)
软件要求
操作系统:Linux(推荐Ubuntu 24.04或以上)
Docker和Docker Compose
Ollama
步骤1:安装必要的软件
1、安装Docker和Docker Compose

#系统自带的docker版本太旧,我们先卸载,以下是卸载命令:
sudo apt-get remove docker docker-engine docker.io containerd runc
#更新软件包
sudo apt update #更新Ubuntu软件包列表
sudo apt upgrade #更新已安装软件的版本
#安装docker依赖
sudo apt-get install ca-certificates curl gnupg lsb-release
#添加Docker官方GPG密钥
sudo curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
#添加Docker软件源
sudo add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
#安装docker
sudo apt install docker-ce docker-ce-cli containerd.io docker-compose
#安装docker常用工具
sudo apt-get -y install apt-transport-https ca-certificates curl software-properties-common
#重启docker
sudo service docker restart
#验证docker是否安装成功
sudo docker run hello-world
#查看docker版本
sudo docker version
#查看docker安装的测试镜像
sudo docker images

2、安装Ollama
主要在Linux系统下的安装命令:

curl -fsSL https://ollama.com/install.sh | sh #这个为Linux系统中的安装命令

3、安装模型
下载llama3模型

ollama run llama3

还可以下载其他模型,可以到ollama官网去下载,具体下载命令官网有。
比如下载deepseek-v2模型

ollama run deepseek-v2

具体的llama3命令说明可以到ollama官网查看
4、配置ollama网络服务
为了让外网环境能够访问到服务,需要对HOST进行配置。

sudo vim /etc/systemd/system/ollama.service

打开ollama.service文件后,按i进入插入模式,在ExecStart=/usr/local/bin/ollama serve上面插入:Environment=”OLLAMA_HOST=0.0.0.0:11434″ ,然后按ESC再输入:wq回车保存,然后重启ollama.service文件。
使用以下命令

sudo systemctl restart ollama.service

5、启动服务
启动服务的命令

ollama serve

首次启动可能会出现以下两个提示:

Couldn’t find ‘/home/用户名/.ollama/id_ed25519’. Generating new private key.

该提示表示文件系统中不存在ssh私钥文件,此时命令将自动帮我们生成该文件,并在命令行中打印相应的公钥。

Error: listen tcp 127.0.0.1:11434: bind: address already in use

看到该提示,大概率服务已在运行中,可以通过netstat -tulpn | grep 11434命令进行确认。

若命令输出的最后一列包含ollama字样,则表示服务已启动,无需做额外处理。
否则,可尝试执行下列命令重启ollama:

# ubuntu/debian
sudo apt update
sudo apt install lsof
sudo systemctl stop ollama
lsof -i :11434
kill <PID>
ollama serve
# centos
sudo yum update
sudo yum install lsof
stop ollama
lsof -i :11434
kill <PID>
ollama serve

6、在外网环境验证连接

方法一:执行curl http://ip:11434命令,若返回“Ollama is running”,则表示连接正常。

方法二:在浏览器访问http://ip:11434,若页面显示文本“Ollama is running”,则表示连接正常。
步骤2 部署Open WebUI
open-webui是在Docker里面部署的,所以我们需要先部署Docker,之前已经部署过,这里就不在赘述了。
安装open-webui直接输入:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main 

然后输入sudo docker images 命令,检查一下当前的容器,然后再输入我们要启动的容器命令:

docker run -d ghcr.nju.edu.cn/open-webui/open-webui 

然后在系统中将open-webui的端口3000开启,直接用浏览器访问http://IP:3000即可成功访问,注意:这里的IP是服务器的IP。
页面加载完成后,新注册一个账号并登录。
登录之后,点击页面右侧顶端的齿轮图标进入设置:
侧边导航栏-General,将语言设置为中文;
侧边导航栏-连接,若“Ollama 基础 URL”这一项为http://host.docker.internal:11434,则表示ollama服务正常且连接成功;如果是空的,则需要检查一下ollama服务了。
侧边导航栏-模型,一般会自动拉取ollama服务上部署好的模型。
在顶端下拉框选择好模型,就可以开始提问了。
在这里插入图片描述

  • 29
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: chatGPT是一种使用自然语言生成(NLG)技术的聊天机器人,可以使用生成对话模型(GPT)训练出来的模型来回答用户的提问或对话。 要在本地部署chatGPT,您需要: 1. 安装Python环境,并使用pip安装chatGPT所需的依赖包。 2. 下载并解压缩chatGPT的代码库。 3. 在代码库目录中运行命令行,使用如下命令启动chatGPT: ``` python main.py ``` 4. 在浏览器中打开http://localhost:5000,就可以使用chatGPT了。 注意:在本地部署chatGPT之前,您需要在本地计算机上安装和配置生成对话模型(GPT)所需的软件和环境。 ### 回答2: ChatGPT是一个开源项目,让用户能够在本地环境下运行OpenAI的聊天机器人模型GPT(Generative Pre-trained Transformer)。本地部署ChatGPT相比于使用OpenAI API有一些优点。 首先,本地部署ChatGPT允许用户在没有互联网连接的情况下使用机器人模型。这对于那些需要在没有网络访问的环境下工作的用户非常方便,也可以提供更好的机器人响应速度。 其次,通过本地部署,用户可以更好地掌控和保护他们的数据隐私。由于模型运行在本地,用户完全控制着他们的数据,不必担心任何潜在的隐私问题或数据泄露。 此外,本地部署还可以为用户提供更多的自定义和灵活性。用户可以根据自己的需求和喜好对模型进行修改和定制,以更好地满足特定的应用场景。这样,用户可以创建一个完全定制化的机器人来满足他们的个性化需求。 然而,本地部署可能需要更多的技术知识和资源来进行设置和维护。用户需要了解如何配置环境、安装依赖项并保证机器模型的正常运行。同时,确保本地部署的服务器具备足够的计算和存储能力,以便支持模型的高效运行。 总之,ChatGPT的本地部署提供了更好的灵活性、数据隐私和离线使用的能力,但需要更多的技术知识和资源来进行设置和维护。这使得用户能够更好地定制和控制他们的聊天机器人体验。 ### 回答3: 为了实现ChatGPT的本地部署,需要进行以下步骤: 1. 下载ChatGPT代码和权重文件:从开源项目中下载ChatGPT的代码和预训练模型的权重文件,这些文件包含了模型的结构和参数。 2. 准备环境:确保你的设备上已经安装了Python和相关的依赖库,比如TensorFlow或PyTorch等。根据代码文档提供的指引,设置所需的工作环境,并且安装所需的Python包。 3. 配置模型:将下载的权重文件加载到模型中,以便模型能够进行推理和生成回答。根据代码文档的指示,调整模型的超参数和设置,以便满足你的需求。 4. 处理输入和输出:为了在本地部署中使用ChatGPT,你需要编写代码来处理用户的输入并生成模型的回答。这可以通过创建一个简单的交互界面,或是使用任何合适的UI框架来实现。 5. 测试和优化:在启动ChatGPT之前,确保对模型进行了充分的测试。通过与真实数据或测试集进行对话,检查模型的质量和性能。如果有必要,可以进行一些调整和优化,以便提高模型的表现。 6. 部署和使用:一旦你对模型的性能感到满意,就可以将ChatGPT部署到本地的设备或服务器上,并与其他组件或服务集成。这样,用户就可以直接使用ChatGPT来进行对话交互了。 总的来说,ChatGPT的本地部署需要下载代码和权重文件,配置模型并处理输入输出,进行测试和优化,最后部署并使用。这样,你就可以在本地使用ChatGPT来进行自动对话任务了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值