自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 从零到一:本地安装Claude Code+自定义API接口全配置指南(附国内踩坑实录)

这是很多国内用户最关心的部分——如何让 Claude Code 使用自己的 API Key 或第三方代理接口。很多国内用户无法直接访问 Anthropic API,需要使用代理服务。Claude Code 通过# 设置你的代理地址(替换为你的实际地址)# 设置你的 API Key(代理服务商提供的 Key)⚠️关键点:代理服务必须兼容 Anthropic Messages API 格式(端点),并且要正确转发和请求头。

2026-03-09 21:34:40 4014

原创 从零开始:OpenClaw安装+飞书机器人全流程配置指南(附踩坑实录)

OpenClaw + 飞书机器人的配置确实有不少坑,但只要按照本文的流程走,应该能少走很多弯路。先装插件,后配飞书先跑 Gateway,后配事件订阅配完权限,别忘了发布应用有问题可以在评论区交流,也欢迎加入OpenClaw Discord 社区一起讨论。本文基于 OpenClaw 2026.3.2 版本,飞书开放平台截至 2026 年 3 月。

2026-03-08 22:57:06 2470

原创 vLLM 从 0 到 1:完整部署教程(含 FastAPI 调用)

革命性的 KV Cache 管理机制,显存利用率接近 100%,大幅提升并发吞吐连续批处理(Continuous Batching):动态将请求打包处理,GPU 利用率极高兼容 OpenAI API:启动后直接可以用和接口支持主流模型:LLaMA、Qwen、Mistral、DeepSeek、Gemma、Falcon 等数百种模型量化支持:GPTQ、AWQ、SqueezeLLM 等量化格式开箱即用用户请求↓FastAPI(你的业务层)↓。

2026-03-04 09:01:19 935

原创 SGLang 从 0 到 1:完整部署教程(含 FastAPI 调用)

KV Cache 自动复用,多请求共享前缀显著降低显存占用吞吐量高:相比 vLLM 在多并发场景下通常有 1.5x~3x 的吞吐优势兼容 OpenAI API:启动后直接可以用接口支持主流模型:LLaMA、Qwen、Mistral、DeepSeek、Gemma 等用户请求↓FastAPI(你的业务层)↓SGLang Server(推理引擎)↓GPU(模型权重)步骤内容✅ 安装 SGLangpip 或源码安装✅ 准备权重HF / ModelScope 下载,规范存放。

2026-03-03 16:28:36 1571

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除