保姆级离线+windows环境+私有化部署大模型(一)

说明:本次部署涉及如下内容的安装部署(均为开源)本次部署所在环境均为window。网上很多文章均未完整介绍安装过程。所以自己写了一份
 

安装列表  描述
Qwen2    
 
阿里通义千问2大模型
Ollama    服务器框架软件,用来获取发布大模型


基于gis数据的高敏感高保密性要求,相信gis的小伙伴都有如下的需求:在内网,无外网环境下,部署自己的私有化大模型。

安装完成后,可以通过第二篇文章进行安装客户端。实现chatGPT式对话。

WebUI安装Ollama的webUI界面内网部署

1.环境背景:

没有Linux环境,只是windows

无外网,内网环境

2.安装部署过程:

一、Ollama下载安装
进入官网:

### Linux 系统上离线部署 AnythingLLM 的方法 #### 准备工作 为了成功在Linux系统上离线部署AnythingLLM,需提前准备好所有必要的组件并将其放置在同目录内。这包括`models`文件夹、ollama安装包以及anythingllm安装包[^2]。 #### 安装环境配置 对于已经具备网络连接的初始设置阶段,可以利用在线脚本来简化首次安装过程。通过执行如下命令来获取最新的安装脚本并立即运行它: ```bash curl -fsSL https://s3.us-west-1.amazonaws.com/public.useanything.com/latest/installer.sh | sh ``` 此操作会自动下载并配置基础环境以便后续离线使用[^1]。 #### Docker 镜像处理 考虑到目标机器可能处于完全隔离的状态,在源计算机上有互联网访问权限的情况下,应先将所需的Docker镜像推送至私有仓库中。具体做法是借助于docker-image-pusher工具上传官方提供的最新版本镜像到个人账户下的阿里云免费存储库: ```bash docker pull registry.cn-hangzhou.aliyuncs.com/c_c_c/anythingllm:latest ``` 完成上述步骤之后,再把整个项目打包成ISO或其他形式光盘介质用于传输给无网设备进行最终部署[^4]。 #### 执行离线安装流程 当所有必需品都被转移到目标环境中后,则可以根据之前准备好的文档资料逐步实施本地化构建和服务启动等工作。份详尽的操作手册能够极大程度减少可能出现的问题和障碍,建议参照《【保姆教程】本地离线部署大模型Ollama+AnythingLLM》中的指导说明来进行实际动手实践[^3]。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值