自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Ollama 结合 Open-WebUI 本地运行大模型

Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型(LLM)。简化部署:Ollama 旨在简化在 Docker 容器中部署 LLM 的过程,使得管理和运行这些模型变得更加容易。安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。例如,要运行 Gemma 2B 模型,只需执行命令。捆绑模型组件:它将模型权重、配置和数据捆绑到一个包中,称为 Modelfile,这有助于优化设置和配置细节,包括 GPU 使用情况。支持多种模型。

2025-12-20 11:22:37 1241

原创 如何安装Ollama不安装到C盘?

Ollama的安装软件exe双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间,须将其安装到非C盘。执行命令:.\OllamaSetup.exe /DIR=D:\software\Ollama (这个安装地址根据刚刚的更改)如:D:\software\Ollama (我喜欢把软件放在D盘的software文件夹中,可以根据自己喜欢该)Ollama官网地址:https://ollama.com (快速安装方法在我上一篇文章中)这样就装好了Ollama,安装在D盘而不是C盘。

2025-12-19 16:48:28 925

原创 快速下载Ollama (最快最真实的方法迅雷下载法)

【摘要】针对Ollama官网下载速度慢的问题,本文推荐使用迅雷加速下载。操作步骤包括:1)获取安装包下载链接;2)在迅雷中点击"添加链接"并粘贴地址;3)设置保存路径;4)确认下载。该方法简单快捷,可有效提升下载效率,适用于Windows用户。(98字)

2025-12-19 16:24:26 419

原创 maxkb的使用教程

maxkb的使用教程

2025-12-18 16:06:13 396

原创 docker本地部署Maxkb(Windows版)

docker本地部署Maxkb(Windows版)

2025-12-18 16:02:29 908

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除