Ollama + Dify部署AI大模型

Ollama本地部署

  1. 自动安装
    通过运行命令来安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh
  1. 手动安装
    (1). 下载ollama二进制文件
    Ollama被分发为一个独立的二进制文件。将其下载到您的PATH目录中:
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama

(2). 配置ollama用户将Ollama添加为启动服务
为Ollama创建一个用户:

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

手写服务文件:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

转入服务更改并启动:

sudo systemctl daemon-reload
sudo systemctl enable ollama
  1. 启动与删除ollama服务:
    启动服务:
sudo systemctl start ollama

删除服务:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

删除执行文件:

sudo rm $(which ollama)

删除用户与用户组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

安装nvidia驱动及CUDA

一、nviidia驱动

1.查看系统版本

cat /etc/os-release

2.查看显卡型号

sudo lshw -numeric -C display

3.安装编译工具

sudo apt-get install g++ make build-essential

4.卸载旧驱动(如果有)

sudo apt-get remove --purge nvidia*

5.nvidia官网下载驱动

https://www.nvidia.com/Download/index.aspx?lang=en-us

选择显卡对应的版本驱动
在这里插入图片描述

6.安装下载的本地运行文件驱动

sudo chmod +x   NVIDIA-Linux-x86_64-510.68.02.run
sh NVIDIA-Linux-x86_64-510.68.02.run

7.检查驱动安装是否成功
终端中执行:
nvidia-smi
在这里插入图片描述

二、CUDA安装

  1. 根据nvidia-smi显示的CUDA版本号去官网下载
    https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/
    下载https://developer.nvidia.com/cuda-toolkit-archive
    在这里插入图片描述
    我这里使用wsl运行ollama,下载对应的wsl2驱动
    在这里插入图片描述

  2. 安装下载的本地运行文件
    sudo sh cuda_11.6.2_510.47.03_linux.run

  3. 安装并配置环境变量
    根据界面提示选择安装
    安装完成配置环境变量
    vim .bashrc
    export LD_LIBRARY_PATH= L D L I B R A R Y P A T H : / u s r / l o c a l / c u d a − 11.6 / l i b 64 e x p o r t P A T H = / u s r / l o c a l / c u d a − 11.6 / b i n : LD_LIBRARY_PATH:/usr/local/cuda-11.6/lib64 export PATH=/usr/local/cuda-11.6/bin: LDLIBRARYPATH:/usr/local/cuda11.6/lib64exportPATH=/usr/local/cuda11.6/bin:PATH
    地址根据你的实际安装路径填写,保存
    source ~/.bashrc

  4. 查看cuda安装是否正常
    nvcc -V
    有正常显示版本号即可
    在这里插入图片描述

dify 部署

  1. 下载Dify
    git clone https://gitee.com/dify_ai/dify

  2. Docker部署Dify
    CMD 在该路径下运行
    cd docker
    docker-compose up -d

  3. 检查dify运行情况
    docker ps
    ![](https://i-blog.csdnimg.cn/direct/af31100717bb495d96b97791aa865074.png

  4. 连接dify
    http://172.31.96.130/signin (根据自己本地运行dify机器的IP填写地址)

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/ea9b14c22a534cd99842ef4e1e75d51a.png

  1. ollama中运行测试模型
    在这里插入图片描述初次运行时会有拉取镜像过程,镜像拉取完成后会自动运行。

  2. Dify连接Ollama
    在这里插入图片描述
    点开设置
    在这里插入图片描述模型供应商中选择ollama
    在ollama中添加模型
    在这里插入图片描述
    输入模型名称
    基础url中,因为是本地运行的ollama而dify是docker运行的,需要更改ollama启动服务配置,不修改ollama默认只监听在127.0.0.1上。
    在这里插入图片描述
    上图为已修改过ollama服务文件配置后,添加模型的基础url
    修改ollama服务配置文件
    查看ollama服务的服务文件位置
    在这里插入图片描述修改服务配置文件
    在这里插入图片描述
    修改后重启ollama服务:
    systemctl restart ollama

  3. 发布应用
    在这里插入图片描述点击创建空白应用
    在这里插入图片描述填写应用名称、描述。
    在这里插入图片描述根据自己需求填写,再点击发布
    在这里插入图片描述点击运行,运行自己发布的ai应用

在这里插入图片描述在这里插入图片描述

  • 17
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值