大模型
文章平均质量分 96
tinygone
保险技术人,技术保险人
跑者
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
本文介绍了在Windows 11基于WSL2运行OpenClaw时解决Memory设置为local不生效问题的方法。通过修改openclaw.json配置,安装CUDA和cuDNN,编译支持CUDA的llama.cpp,并安装node-llama-cpp,最终实现了本地(local)模式的Memory配置。文章详细记录了配置过程中的关键步骤,包括环境变量设置、模型路径指定、CUDA安装验证等,为遇到类似问题的开发者提供了实用参考。原创 2026-02-22 00:03:30 · 4351 阅读 · 2 评论 -
Windows11基于WSL2首次运行Openclaw,并对接飞书应用
OpenClaw 基于Windows11 WSL2部署,使用GLM5大模型,并完成飞书对接。原创 2026-02-18 23:11:54 · 4996 阅读 · 0 评论 -
使用Ollama跑大模型的准备工作
Windows安装CUDA并运行Ollama大模型原创 2026-02-17 21:38:45 · 706 阅读 · 0 评论
分享