1panel+MaxKB+Ollama+Llama Linux部署指南

目录

1.1panel安装

2.MaxKB

1.MaxKB登录

3.Ollama(gpu)安装

1.安装英伟达容器安装包

        1.配置apt源

         2.更新源

         3.安装工具包

2.使用GPU运行Ollama

3.使用Ollama下载模型

        1.修改Ollama下载路径

        2.设置使用的显卡(如果想单张使用)

 4.MaxKB应用配置

 5.模型运行情况

 6.本地环境版本


1.1panel安装

输入指令:

ubuntu:curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh

RedHat/Centos:curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sh quick_start.sh

Debian:curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && bash quick_start.sh

openEuler/其他:

第一步:安装 docker

bash <(curl -sSL https://linuxmirrors.cn/docker.sh)

第二步:安装 1Panel

curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sh quick_start.sh

安装成功后,控制台会打印面板访问信息,可通过浏览器访问 1Panel:

http://目标服务器 IP 地址:目标端口/安全入口

2.MaxKB

打开上面1panel地址,打开应用商城,点击MaxKB就可以安装了。这是docker方式安装的,安装前需要配置好docker。

如果出现docker安装失败,出现408,即配置docker源:

http://prod-reg.hydevops.com
https://reg.hydevops.com
https://docker.mirrors.ustc.edu.cn
https://hub-mirror.c.163.com
https://dockerproxy.com
https://mirror.baidubce.com
https://ccr.ccs.tecentyun.com

1.MaxKB登录

链接为http://ip+已配置好的端口,端口可以在此查看

首次登陆,账号密码为:

username:admin

password:MaxKB@123.. 

3.Ollama(gpu)安装

1.安装英伟达容器安装包

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

        1.配置apt源

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

         2.更新源

sudo apt-get update

         3.安装工具包

sudo apt-get install -y nvidia-container-toolkit

2.使用GPU运行Ollama

docker run --gpus all -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

需要注意的:其中-p后面的的第一个11434是连接时的端口号,如果有端口冲突可以改变,若没有,则可默认。

3.使用Ollama下载模型

 llama3:70b可以替换为你需要下载模型的名称。

docker exec -it ollama ollama run llama3:70b

如果在pull过程中出现EOF问题,可以再次输入该指令继续下载。 

        1.修改Ollama下载路径

                打开1panel,打开容器,点击ollama,先将ollama暂停。

                 打开编辑,可以直接修改文件保存的路径 ,即本机目录。这样就缓解了本地硬盘存储空间不足的问题。       

        2.设置使用的显卡(如果想单张使用)

        同样是在编辑中,可在NVIDIA_VISIBLE_DEVICES中更改使用的显卡参数。可以在linux中使用nvidia-smi查看你想使用显卡的编号。

 4.MaxKB应用配置

 

最主要是api域名要写正确 ,使用的是docker安装定义的端口,http://ip+端口,如果没有改变,则默认为11434。API Key可以随便写。

 

需要注意:这不是在线安装,需要你事先在本地中下载好模型,若忘记,可以返回查看3.3如何下载模型。

之后可以添加应用了,也可以加入自己的知识库,选择好模型,点击创建,就完成了。

如果在演示中,出现限制次数问题,可以在应用中,点击应用设置,选择访问限制,可以调到10000。

 5.模型运行情况

本地运行的llama3:8b,一张2080ti就可以运行起来(本地有2张2080ti+3080),该显卡情况(32G显存)运行不起来llama3:70b。

llama3:70b,一张A100(80G显存)可以运行起来,45G显存就可以运行,但能不能推理没尝试过。

 6.本地环境版本

ubuntu:20.04.6 LTS

docker:24.0.5

  • 32
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
LLaMA+Alpaca是一个基于PyTorch的自然语言处理框架,主要用于生成式对话模型的训练和部署。以下是搭建、部署、训练LLaMA+Alpaca的步骤: 1. 安装依赖项:在安装LLaMA+Alpaca之前需要安装以下依赖项: - Python 3.7或更高版本 - PyTorch 1.7或更高版本 - Transformers 4.0或更高版本 - Flask 2. 下载代码:可以从LLaMA+Alpaca的GitHub页面上下载代码,也可以使用以下命令从GitHub上克隆代码: ``` git clone https://github.com/microsoft/LLaMA.git ``` 3. 部署:可以使用以下命令启动LLaMA+Alpaca的部署: ``` cd LLaMA/deployment python app.py ``` 这将会在本地启动一个Flask服务器并提供对话API。 4. 训练模型:可以使用以下命令在LLaMA+Alpaca上训练对话模型: ``` python train.py \ --dataset_path <path-to-dataset> \ --tokenizer_name <tokenizer-name> \ --model_name_or_path <model-name-or-path> \ --output_dir <output-dir> \ --num_train_epochs <num-epochs> \ --per_device_train_batch_size <batch-size> \ --gradient_accumulation_steps <accumulation-steps> \ --learning_rate <learning-rate> ``` 其中,\<path-to-dataset>是对话数据集的路径,\<tokenizer-name>和\<model-name-or-path>分别是使用的tokenizer和模型名称或路径,\<output-dir>是输出路径,\<num-epochs>是训练的epoch数,\<batch-size>是每个GPU上的批量大小,\<accumulation-steps>是梯度累积步骤数,\<learning-rate>是学习率。 5. 部署新模型:可以使用以下命令将新训练的模型部署到Flask服务器上: ``` python update_model.py \ --model_path <path-to-model> \ --tokenizer_name <tokenizer-name> \ --model_name <model-name> ``` 其中,\<path-to-model>是新训练的模型路径,\<tokenizer-name>是使用的tokenizer名称,\<model-name>是新模型名称。 以上就是搭建、部署、训练LLaMA+Alpaca的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值