服务器部署开源大模型完整教程 Ollama+Llama3+open-webui

本文介绍了如何在Linux服务器上使用Ollama工具部署大模型Llama3,并配合open-webui实现Web界面交互。步骤包括安装Ollama、选择和下载适合的模型、部署open-webui以及管理用户权限。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

最近大语言模型大火,正好最近打比赛可能会用得上LLMs,今天就在学校的服务器上面进行一次部署。这样之后就可以直接在内网里面使用学校的LLMs了。

介绍

Ollama:一款可以让你在本地快速搭建大模型的工具

官网:https://ollama.com/

github:https://github.com/ollama/ollama

Llama3:谷歌开源的大模型

open-webui:非常不错的大模型webui,也就是界面展示

github:https://github.com/open-webui/open-webui

详细部署
部署Ollama

部署ollama非常简单直接输入:

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

安装成功后使用下述命令查看版本信息,如果可以显示则代表已经安装好:

ollama -v

在这里插入图片描述

部署Llama3

官网地址:library (ollama.com)

我们可以通过官网查看适合自己服务器GPU大小的模型,点击想要下载的模型之后右侧会有对应的代码,直接在服务器上面下载模型即可,模型的默认安装位置为 ”/usr/share/ollama/.ollama/models“。

部署open-webui

Open WebUI基于docker部署,docker的安装方法可以参考这篇知乎文章

执行以下docker命令来拉取并运行open-webui:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main

如果发现为开启的话,我们使用docker命令运行image即可:

docker run -d ghcr.nju.edu.cn/open-webui/open-webui

之后访问服务器的3000端口,就可以访问到我们的UI界面了。这样我们就部署好了大语言模型以及UI界面。

结语
  1. 我们注册的第一个用户默认是管理员,其他用户进行注册的时候需要经过管理员的同意,如果不想这么麻烦的话可以在UI界面设置—”默认用户角色“,设置为用户即可。

  1. 下载模型时可以直接在UI界面下载模型,这样节省时间(管理员);同时还可以设置UI界面的使用语言:

在这里插入图片描述

参考:

Linux快速部署大语言模型LLaMa3,Web可视化j交互(Ollama+Open Web UI)_ollama3 下载-CSDN博客

服务器部署开源大模型完整教程 Ollama+Gemma+open-webui - 哔哩哔哩 (bilibili.com)

### PyCharm 打开文件显示不全的解决方案 当遇到PyCharm打开文件显示不全的情况时,可以尝试以下几种方法来解决问题。 #### 方法一:清理缓存并重启IDE 有时IDE内部缓存可能导致文件加载异常。通过清除缓存再启动程序能够有效改善此状况。具体操作路径为`File -> Invalidate Caches / Restart...`,之后按照提示完成相应动作即可[^1]。 #### 方法二:调整编辑器字体设置 如果是因为字体原因造成的内容显示问题,则可以通过修改编辑区内的文字样式来进行修复。进入`Settings/Preferences | Editor | Font`选项卡内更改合适的字号大小以及启用抗锯齿功能等参数配置[^2]。 #### 方法三:检查项目结构配置 对于某些特定场景下的源码视图缺失现象,可能是由于当前工作空间未能正确识别全部模块所引起。此时应该核查Project Structure里的Content Roots设定项是否涵盖了整个工程根目录;必要时可手动添加遗漏部分,并保存变更生效[^3]。 ```python # 示例代码用于展示如何获取当前项目的根路径,在实际应用中可根据需求调用该函数辅助排查问题 import os def get_project_root(): current_file = os.path.abspath(__file__) project_dir = os.path.dirname(current_file) while not os.path.exists(os.path.join(project_dir, '.idea')): parent_dir = os.path.dirname(project_dir) if parent_dir == project_dir: break project_dir = parent_dir return project_dir print(f"Current Project Root Directory is {get_project_root()}") ```
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值