自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 Word设置交叉引用标注参考文献

【开始】->【编号】->【定义新编号格式】随便选择一个阿拉伯编号格式将括号()修改为中括号【】

2026-03-06 17:28:17 88 1

原创 在 8x 1080Ti 服务器上使用Ollama部署 Qwen 大模型使用Open WebUI作为前端界面

Ollama 基于 llama.cpp,能够很好地在 Pascal 架构(1080 Ti)上运行,并且支持自动将大模型切分到多张显卡上。,您应该能看到多张显卡都有显存占用,说明 Ollama 成功进行了自动分层(Layer Offloading)。(如果 Qwen 3 已发布,操作逻辑完全一致)。无论使用 Ollama 还是 vLLM,部署后都可以通过兼容 OpenAI 格式的 API 进行调用。在模型运行时,在宿主机新开一个终端输入。如果慢,可以在命令前加代理环境变量。目前 Qwen 最新稳定版为。

2025-12-21 16:35:31 599 2

原创 多显卡服务器环境配置:Docker + NVIDIA Toolkit 批量部署 GPU 容器全指南

在多显卡(如 8 张 GTX 1080 Ti)环境下,如何快速、稳健地为不同用户分配独立的开发环境?本文整理了一套从驱动检查到容器批量部署的完整流程,并针对国内网络环境提供了有效的加速方案。

2025-12-21 14:18:21 391 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除