手把手教你在本地部署AI大模型,离线也可与‘GPT’对话!!!

1.前言

在本地部署大模型,不用担心网络问题或者付费与GPT对话,并且你可以基于base LLM微调模型,使其能在垂直领域发挥更大的作用。最近收到一个任务是做一个智能体(Agent),做Agent必定是缺少不了LLM的,由此引出我需要在本地部署一个大模型。下面我将逐步讲解如何在本地部署LLLM。

硬件配置(个人PC):CPU: intel i7-10700H       GPU: GTX1650Ti      内存:16GB

其实仅仅是部署本地不做微调和训练的话也不太需要GPU(我看网上说微调大模型至少20GB显存,我这肯定不够用),至少我在部署直至问大模型问题都没有发现GPU发挥左右,不过后续进行微调和训练也不会在我的个人PC,所以也不是问题,今天只是出一个部署教程,方便日后在其他地方部署时查阅。

2.下载安装ollama

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。我们可以在其模型库下载任何我们想使用的大模型,包括目前llama3,qwen2,gemma2等等各种开源模型,并且其更新速度贼快。直接前往ollama官网下载即可(点击即可跳转)。界面如下:

安装过程无脑点击下一步即可,也可以自己设置安装位置,看个人需求。需要注意的是,如果你不想让你的C盘爆盘(后续下载的模型文件默认保存C盘)最好在安装完后配置环境变量。 变量名OLLAMA_MODELS,变量值设置为想要保存文件夹的路径即可(注意路径最好不要有中文)。以下是我配置的环境变量:

3.下载并安装Docker

Docker 是一个开源的应用容器引擎,基于 Go 语言 并遵从 Apache2.0 协议开源。Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。Docker是完全使用沙箱机制,相互之间不会有任何接口(类似 iPhone 的 app),更重要的是容器性能开销极低。可以前往Docker官网下载(科学上网),觉得慢了可以去Docker中文网下载。

Docker官网界面如下:

Docker中文网界面如下:

直接安装下载即可,也没有任何困难。 

仍然是为了防止爆盘,安装Docker启动后需要更改其资源保存位置。操作如下:

4.使用Open WebUI

其实到这里已经可是开始部署模型了,可以在cmd窗口进行对话了,但是为了使其更加直观并且便于操作,我们使用Open WebU给其添加界面。直接前往Open WebUI官网查看命令对应运行即可。界面如下:

如果你懒得折腾并且又正好是windows系统,那么你有福了。我已经给你整理好了:

使用GPU运行:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

使用CPU运行:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

其中端口和容器名可以自己进行更改设置。

运行后但返回Docker,如果能看到如下界面所示(图中本人GPU和CPU都部署了,无需在意,自己部署时选择一个即可),即表明容器创建成功,然后前往浏览器访问3000:8000即可(如果自己更改了端口则前往自己更改的端口)。

随后首次进入可能需要注册,很简单,直接跳过。注册完登陆后界面大致如下:

此时发现选择模型是空白的,无法选择,那是因为我们还没有下载模型至本地。下载流程如下:

点击下载后等待下载完成即可。然后返回对话界面即可选择模型进行对话。

对话反应速度因电脑配置而异,可以看到对话过程中我的电脑内存几乎要爆掉,不过对话速度还是能够接受的,建议大家使用更大内存电脑试试。

5.总结

OK到这里就结束了,恭喜你已经学会了如何在本地部署大模型!更多功能请自行进行探索。

离线 AI 魔法是指在本地环境下使用Python编程语言实现GPT-4模型GPT-4是由OpenAI开发的一种强大的自然语言处理模型,它可以生成高质量的文本、回答问题和完成其他语言相关任务。 为了在本地实现GPT-4,首先需要准备相应的硬件资源和软件环境。因为GPT-4是一个庞大的深度学习模型,所以需要有一台配置较高的电脑或服务器来进行训练和使用。同时,需要安装Python编程语言的开发环境以及相关的深度学习库,如TensorFlow或PyTorch。 在准备好硬件和软件环境之后,可以开始使用Python编写代码来实现GPT-4的功能。首先,需要加载已经预训练好的GPT-4模型的权重和配置文件。这些文件可以通过OpenAI提供的资源或其他方式获取。然后,使用Python的深度学习库来读取这些文件,并对模型进行初始化。 接下来,可以使用已经初始化的模型来进行文本生成、问题回答等任务。通过输入一段文本或问题,模型会根据其训练到的语言模式和知识来生成相应的输出。可以根据具体需求对生成的文本进行筛选和后处理,以提高输出的质量和适应性。 离线AI魔法的好处是可以在本地进行文本生成和问答任务,不受网络连接和在线服务的限制。同时,由于在本地运行,可以更好地保护数据的隐私和安全。 然而,离线AI魔法也面临一些挑战。由于GPT-4是一个巨大且复杂的模型,需要大量的计算资源和时间来进行训练和使用。在本地实现时,可能需要使用分布式计算或模型压缩等技术来提高性能和效率。此外,由于GPT-4的权重和配置文件可能非常庞大,需要在硬盘上保存大量的存储空间。 总而言之,离线AI魔法是指使用Python在本地实现GPT-4模型,以实现文本生成和问答等自然语言处理任务。利用适当的硬件和软件环境,加载预训练好的模型,编写代码来完成具体的任务。这种方法可以提高数据隐私和安全,同时也需要解决计算资源和存储空间等挑战。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值