- 博客(5)
- 收藏
- 关注
原创 Ollama 结合 Open-WebUI 本地运行大模型
Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型(LLM)。简化部署:Ollama 旨在简化在 Docker 容器中部署 LLM 的过程,使得管理和运行这些模型变得更加容易。安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。例如,要运行 Gemma 2B 模型,只需执行命令。捆绑模型组件:它将模型权重、配置和数据捆绑到一个包中,称为 Modelfile,这有助于优化设置和配置细节,包括 GPU 使用情况。支持多种模型。
2025-12-20 11:22:37
1241
原创 如何安装Ollama不安装到C盘?
Ollama的安装软件exe双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间,须将其安装到非C盘。执行命令:.\OllamaSetup.exe /DIR=D:\software\Ollama (这个安装地址根据刚刚的更改)如:D:\software\Ollama (我喜欢把软件放在D盘的software文件夹中,可以根据自己喜欢该)Ollama官网地址:https://ollama.com (快速安装方法在我上一篇文章中)这样就装好了Ollama,安装在D盘而不是C盘。
2025-12-19 16:48:28
925
原创 快速下载Ollama (最快最真实的方法迅雷下载法)
【摘要】针对Ollama官网下载速度慢的问题,本文推荐使用迅雷加速下载。操作步骤包括:1)获取安装包下载链接;2)在迅雷中点击"添加链接"并粘贴地址;3)设置保存路径;4)确认下载。该方法简单快捷,可有效提升下载效率,适用于Windows用户。(98字)
2025-12-19 16:24:26
419
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅