- 博客(4)
- 收藏
- 关注
原创 从零到一:本地安装Claude Code+自定义API接口全配置指南(附国内踩坑实录)
这是很多国内用户最关心的部分——如何让 Claude Code 使用自己的 API Key 或第三方代理接口。很多国内用户无法直接访问 Anthropic API,需要使用代理服务。Claude Code 通过# 设置你的代理地址(替换为你的实际地址)# 设置你的 API Key(代理服务商提供的 Key)⚠️关键点:代理服务必须兼容 Anthropic Messages API 格式(端点),并且要正确转发和请求头。
2026-03-09 21:34:40
4014
原创 从零开始:OpenClaw安装+飞书机器人全流程配置指南(附踩坑实录)
OpenClaw + 飞书机器人的配置确实有不少坑,但只要按照本文的流程走,应该能少走很多弯路。先装插件,后配飞书先跑 Gateway,后配事件订阅配完权限,别忘了发布应用有问题可以在评论区交流,也欢迎加入OpenClaw Discord 社区一起讨论。本文基于 OpenClaw 2026.3.2 版本,飞书开放平台截至 2026 年 3 月。
2026-03-08 22:57:06
2470
原创 vLLM 从 0 到 1:完整部署教程(含 FastAPI 调用)
革命性的 KV Cache 管理机制,显存利用率接近 100%,大幅提升并发吞吐连续批处理(Continuous Batching):动态将请求打包处理,GPU 利用率极高兼容 OpenAI API:启动后直接可以用和接口支持主流模型:LLaMA、Qwen、Mistral、DeepSeek、Gemma、Falcon 等数百种模型量化支持:GPTQ、AWQ、SqueezeLLM 等量化格式开箱即用用户请求↓FastAPI(你的业务层)↓。
2026-03-04 09:01:19
935
原创 SGLang 从 0 到 1:完整部署教程(含 FastAPI 调用)
KV Cache 自动复用,多请求共享前缀显著降低显存占用吞吐量高:相比 vLLM 在多并发场景下通常有 1.5x~3x 的吞吐优势兼容 OpenAI API:启动后直接可以用接口支持主流模型:LLaMA、Qwen、Mistral、DeepSeek、Gemma 等用户请求↓FastAPI(你的业务层)↓SGLang Server(推理引擎)↓GPU(模型权重)步骤内容✅ 安装 SGLangpip 或源码安装✅ 准备权重HF / ModelScope 下载,规范存放。
2026-03-03 16:28:36
1571
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅