自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 大模型小白指南系列2 -- 小龙虾(openclaw)的本地部署(不花钱!)

本文提供了Windows系统下安装OpenClaw大语言模型客户端的详细指南。主要内容包括:1)安装Node.js(v22以上版本)及配置npm;2)搭建编译环境(VC++工具、Python、MinGit);3)安装OpenClaw并初始化配置;4)连接本地llama.cpp服务端运行Qwen3.5-9B模型。教程针对Linux新手设计,简化安装流程,避免使用复杂工具,最终实现通过浏览器访问本地大模型服务。

2026-03-08 18:47:54 1961

原创 大模型小白指南系列1—普通电脑也可以本地部署千问大模型3.5(QWen3.5)

通过轻量化大模型框架llama.cpp,在消费级电脑上本地部署千问3.5大模型,安全、免费的解决方案。文章适和0基础的小白和普通电脑用户。

2026-03-08 14:05:45 1425

原创 安装软件时,提示“无法访问Windows Installer服务”?一分钟学会用注册表快速解决问题!

一分钟学会用注册表快速解决“无法访问Windows Installer服务”

2026-01-26 22:24:05 324

原创 为什么本地部署DeepSeek选择7B模型

可以看到,7B模型的数据大多数超出8B,而大小还小一点,所以选择是当然的。来源:DeepSeek官方数据(

2025-02-11 23:44:52 1513

原创 AMD 显卡笔记本windows11满血玩转Stable Diffusion

电脑配置:AMD Ryzen R7 6800H,16G内存,核显Radeon 680M,共享内存8G。测试了direct-ml版,还是zluda版本速度快,大概是direct-ml版本的5倍以上。以下正文。

2025-02-10 19:38:53 6965 3

原创 DeepSeek在笔记本电脑本地部署

春节期间,DeepSeek大出圈,试过本地SD的我也尝试着做了一下本地部署,没想到,太简单了,几乎不需要做任何处理!1,ctrl+alt+delete打开任务管理器,选则性能,然后提一个复杂点的问题,看CPU与GPU的负荷情况。再之后是8b,属于Ollama3蒸馏,大约4.9G,从测试得分看,还不如7b,所以是我的首选。我这里大约150kB/s。最轻量的是1.5b,即15亿参数,约1.1G,是DeepSeek训练的基础模型。2,在cmd窗口,运行ollama ps,看使用的运算单元是不是GPU。

2025-02-09 16:14:22 3917 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除