- 博客(6)
- 收藏
- 关注
原创 大模型小白指南系列2 -- 小龙虾(openclaw)的本地部署(不花钱!)
本文提供了Windows系统下安装OpenClaw大语言模型客户端的详细指南。主要内容包括:1)安装Node.js(v22以上版本)及配置npm;2)搭建编译环境(VC++工具、Python、MinGit);3)安装OpenClaw并初始化配置;4)连接本地llama.cpp服务端运行Qwen3.5-9B模型。教程针对Linux新手设计,简化安装流程,避免使用复杂工具,最终实现通过浏览器访问本地大模型服务。
2026-03-08 18:47:54
1961
原创 大模型小白指南系列1—普通电脑也可以本地部署千问大模型3.5(QWen3.5)
通过轻量化大模型框架llama.cpp,在消费级电脑上本地部署千问3.5大模型,安全、免费的解决方案。文章适和0基础的小白和普通电脑用户。
2026-03-08 14:05:45
1425
原创 安装软件时,提示“无法访问Windows Installer服务”?一分钟学会用注册表快速解决问题!
一分钟学会用注册表快速解决“无法访问Windows Installer服务”
2026-01-26 22:24:05
324
原创 为什么本地部署DeepSeek选择7B模型
可以看到,7B模型的数据大多数超出8B,而大小还小一点,所以选择是当然的。来源:DeepSeek官方数据(
2025-02-11 23:44:52
1513
原创 AMD 显卡笔记本windows11满血玩转Stable Diffusion
电脑配置:AMD Ryzen R7 6800H,16G内存,核显Radeon 680M,共享内存8G。测试了direct-ml版,还是zluda版本速度快,大概是direct-ml版本的5倍以上。以下正文。
2025-02-10 19:38:53
6965
3
原创 DeepSeek在笔记本电脑本地部署
春节期间,DeepSeek大出圈,试过本地SD的我也尝试着做了一下本地部署,没想到,太简单了,几乎不需要做任何处理!1,ctrl+alt+delete打开任务管理器,选则性能,然后提一个复杂点的问题,看CPU与GPU的负荷情况。再之后是8b,属于Ollama3蒸馏,大约4.9G,从测试得分看,还不如7b,所以是我的首选。我这里大约150kB/s。最轻量的是1.5b,即15亿参数,约1.1G,是DeepSeek训练的基础模型。2,在cmd窗口,运行ollama ps,看使用的运算单元是不是GPU。
2025-02-09 16:14:22
3917
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅