- 博客(12)
- 收藏
- 关注
原创 4卡RTX 5060Ti服务器 llama.cpp 测试
4张RTX5060Ti显卡服务器成功部署llama.cpp推理环境,在Ubuntu22.04系统下稳定运行32B参数量的Qwen3量化模型。测试显示:单卡推理速度达22.3t/s(Prompt)和7.3t/s(Generation),4卡并行时性能提升至253t/s(Prompt)和30t/s(Generation)。该配置显存占用合理(12-14GB/16GB),适合中小企业私有化部署,总成本约1.6万元,性价比突出。推荐使用Q4_K_M量化等级,开启flash-attention优化,上下文窗口设置为1
2026-04-03 22:02:48
810
原创 4 卡 Intel B60(48G) 服务器llama.cpp测试
本文详细介绍了在配备4张Intel B60显卡(48G显存)的服务器上安装和优化llama.cpp的完整流程。主要内容包括:1)系统与硬件准备,推荐Ubuntu 25.04 LTS系统;2)安装Intel oneAPI工具包并配置环境;3)解决多卡识别问题,安装专用驱动;4)编译llama.cpp并启用SYCL和多GPU支持;5)性能测试与调优,包括参数优化和多卡显存分配策略。最终测试显示,系统能有效识别所有GPU,在Qwen3 32B模型上实现了8.2 tokens/s的生成速度
2026-04-02 04:03:42
581
原创 8卡RTX 4090服务器llama.cpp测试
本文详细介绍了8卡RTX4090服务器的完整安装与性能调优流程。主要内容包括:1)系统准备,包括Ubuntu22.04LTS安装和硬件检查;2)NVIDIA驱动安装,包括4090专属驱动535版本;3)CUDA12.2环境配置;4)llama.cpp编译,特别针对4090的sm_89算力优化;5)多GPU测试,展示8卡协同工作性能;6)性能调优参数详解,包括批处理大小、上下文长度等关键设置;7)常见问题排查指南。最终测试显示,8卡4090服务器在Qwen3-32B模型上实现超过400token/s的推理速度
2026-04-01 03:56:12
394
原创 8卡RTX 5090服务器llama.cpp测试
本文详细介绍了8卡RTX5090服务器的完整安装与性能调优流程。基于Ubuntu22.04LTS系统,从硬件检查、NVIDIA开源驱动安装、CUDA12.4配置到llama.cpp多GPU编译优化,逐步指导完成环境搭建。重点包括:禁用Nouveau驱动、安装6.8+内核、使用590-open专属驱动、配置CUDA环境变量、编译支持多GPU的llama.cpp(含算力参数sm_120优化)。测试阶段展示了单卡验证和8卡自动负载均衡的实操方法,提供关键性能参数调优建议(如batch-size、gpu-layer
2026-04-01 01:48:36
1113
原创 n8n自动化部署全攻略
核心诉求为:获取部署开源工作流自动化工具的详细方法,并了解如何利用其构建和实现(例如,前述OpenClaw+DeepSeek+Seedance视频生成方案的)自动化流程。部署需求需覆盖多种环境(如Windows本地、云服务器),自动化实现需涵盖从触发器设置到各节点联动的全流程配置。是一个基于 Node.js 的开源、可自托管的工作流自动化工具,采用节点(Node)连接的方式构建流程。其部署主要依赖 Docker,因其能提供一致的环境并简化安装。启动工作流,执行具体操作,以及管理执行逻辑。
2026-03-29 00:59:15
339
原创 OpenClaw+DeepSeek+Seedance2.0自动视频生成方案
核心诉求为:了解如何组合使用这三个工具,实现一个能够的系统或工作流。用户关注的重点是“自动化”,意味着从触发到最终视频产出的整个过程应尽可能少地依赖人工干预,并希望获得具体的配置和使用方法指导。此需求并非单一工具的简单使用,而是一个需要将和串联起来的综合解决方案。。OpenClaw 是开源的自主智能体框架,需进行主动性配置以实现自动化触发。heartbeatwebhook在 OpenClaw 的技能配置中,需要集成 DeepSeek 的 API 以用于内容生成。
2026-03-29 00:58:56
1367
原创 Intel B60 GPU服务器Ubuntu22.04环境搭建指南
至此已经在 Intel B60 GPU 的 Ubuntu 22.04 服务器上完成了测试环境的基础搭建。
2026-03-28 10:33:53
204
原创 Ubuntu 22.04安装OpenClaw必备Python配置
OpenClaw在Ubuntu 22.04系统上的安装,其Python环境的准备是关键的第一步,以确保后续的Node.js服务或相关组件能正常运行。以下是详细的Python版本要求、依赖安装方案及完整的安装流程。虽然OpenClaw的核心服务基于Node.js运行,但其部分后端功能、工具链或AI模型接口可能需要Python环境。pipvenv在Ubuntu 22.04上,通常Python 3.10已预装。OpenClaw的运行主要依赖Node.js环境。这是安装的核心,必须优先配置。建议安装。
2026-03-28 01:56:04
532
原创 RTX 4090 VFIO直通故障根源解析
问题场景推荐优先级解决方案组合首次设置直通即失败高1. 确认内核参数正确(iommu=on2. 使用脚本确保驱动绑定。3. 检查IOMMU分组是否独立。4. 在VM配置中设置。VM重启/热迁移后失败高1. 部署模块(首选软件方案)。2. 实施ACPI D3cold电源循环脚本(作为备用)。3. 禁用宿主机GPU相关服务(间歇性绑定/解绑失败中1. 内核参数添加和。2. 仔细管理驱动加载顺序,确保脚本在libvirtd启动前执行。
2026-03-27 13:41:36
564
原创 容器内nvidia-smi OOM问题解决方案
针对在Kubernetes (K8s) + containerd环境下容器内执行nvidia-smi出现 OOM (Out-Of-Memory) 错误的问题,根源通常在于容器环境与宿主机GPU驱动运行状态之间的隔离与资源映射不一致。结合提供的【参考资料】和常见故障模式,解决方案需从容器运行时配置、驱动服务状态和K8s资源限制三个层面进行排查。
2026-03-27 13:38:09
494
原创 OpenClaw Windows安装必备Python版本与依赖
OpenClaw在Windows系统上安装时,对Python版本和依赖工具有明确的要求。其核心是确保Python环境正确配置,并准备好必要的系统级和包管理工具。下面将详细说明具体要求和安装支持方案。OpenClaw通常基于Python运行,对Python的版本和配置有特定要求。pythonpip除了Python本身,在Windows上安装OpenClaw还需要一系列依赖工具的支持,可以分为和两大类。为了高效安装和管理系统级依赖,建议使用。
2026-03-22 17:12:52
492
原创 RTX 4090三类负载功耗实测
RTX 4090在不同负载下的实际功耗表现是其能效评估的核心。基于Ada Lovelace架构和台积电4N工艺,其在游戏、AI推理和渲染等高强度任务中的功耗存在显著差异,这不仅取决于核心负载,还与显存、电压、频率等动态因素密切相关。以下是针对这三种典型负载的详细功耗数据与分析。
2026-03-22 17:10:22
514
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅