- 博客(6)
- 收藏
- 关注
原创 NPU:8张910B4加速卡(华为昇腾)适配模型
摘要:基于880GB内存、192核CPU和8张华为昇腾NPU的服务器配置,推荐部署以下AI模型方案:1)优先选择Qwen2.5系列(32B/14B/7B)作为主力中文模型;2)搭配Llama3.2轻量级国际模型;3)可选多模态视觉模型和专用代码生成模型。建议先安装Qwen2.5-7B和Llama3.2-3B基础模型,利用多NPU卡实现并行推理或大模型部署。该配置可支持从7B到32B不同规模的模型高效运行,满足多样化AI应用需求。
2026-02-26 13:37:50
393
原创 Qwen2.5 72B在国产npu部署
摘要:分析确认Ollama支持Qwen2.5系列模型(0.5B-72B),但Qwen3.570B可能不在官方库中。测试系统(880GB内存、8张NPU、192核CPU)成功运行Qwen2.5-72B模型。提供了多种使用方案:命令行交互、API调用及Web界面(推荐OpenWebUI),并完成Nginx反向代理配置。系统完全支持大型模型推理,建议测试已安装模型或探索其他大模型对比。WebUI可通过3000端口直接访问或8080端口代理访问,具备完整对话和管理功能。
2026-02-26 13:37:33
526
原创 docker配置昇腾npu加速
1. vLLM-Ascend服务(正在运行):vllm-qwen3-32b:端口8081,Qwen3-32B模型vllm-qwen3-embedding-8b:端口8083,嵌入模型vllm-qwen3-reranker-8b:端口8084,重排序模型vllm-orlm-model:端口8085,ORLM模型。1. NPU加速AI服务:vLLM-Ascend:运行在8081端口模型:Qwen3-32B(32B参数)加速:华为昇腾910B NPU(8张卡)API标准:完全兼容OpenAI API。
2026-02-25 12:00:00
580
原创 OpenClaw Windows 启动指南
本文提供了在Windows系统上运行OpenClaw项目的三种解决方案:1)推荐安装Git Bash并运行项目;2)使用WSL2环境;3)手动构建临时方案。详细说明了每种方案的安装步骤和运行命令,并列出了常用命令和注意事项。针对常见错误如"missing dist/entry.js"、"Cannot find package"和"bash not found"等问题,给出了具体的故障排除方法。建议使用Node.js≥22.12.0和pnpm≥10.
2026-02-24 08:24:42
2213
原创 8卡华为昇腾910b使用docker部署千问2.5模型
本文介绍了在openEuler系统上使用Docker安装Ollama大语言模型服务的完整方案。主要内容包括:1)通过npu-smi命令查看8个NPU设备状态;2)提供三种安装方案(推荐Docker方式);3)详细说明Docker安装步骤及验证方法;4)给出基本使用命令和API调用示例;5)建议添加GPU加速参数以提升性能。安装完成后,可通过11434端口访问服务,模型数据持久化存储在Docker卷中。
2026-02-23 23:43:36
527
原创 Windows 部署 OpenClaw 完整指南
**问题反馈**: https://github.com/openclaw/openclaw/issues。- **GitHub 仓库**: https://github.com/openclaw/openclaw。# ==================== 开机自启动 ====================# ==================== 日常使用 ====================# ==================== 故障排查 ====================
2026-02-23 23:29:19
4982
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅