• 博客(221)
  • 收藏
  • 关注

原创 DigitalOcean 收购 Katanemo Labs:迎接 Agent 时代,重塑基础设施

DigitalOcean 正在全力构建全球领先的​​。我们的使命很清晰:为 AI 原生企业提供一个坚实底座,让它们能在生产环境中大规模运行推理任务。今天,我们正式宣布收购 AI Agent 基础设施领域的领先公司。通过这次整合,我们将平台能力进一步下沉到 Agent 系统最关键的运行层。Katanemo Labs 的技术与 DigitalOcean 一贯坚持的理念——运维简单、成本可控、性能可扩展——高度契合。

2026-04-03 15:39:01 163

原创 教你用Continue/Kilo插件在VS Code里丝滑切换Qwen3与Opus 4.6

轻量任务本地化:简单的代码提示交给 Copilot 或本地模型。重型任务云端化:涉及跨文件逻辑、架构设计、数据迁移脚本时,直接调用 Gradient 上的 opus 4.6。统一化管理:所有的 API 调用、模型切换和账单支付都集中在 DO 平台,不再需要到处找 Key。这种“Serverless AI”的配置方式,代表了未来开发者工作流的趋势——不为闲置的订阅买单,只为产生的价值付费。赶紧去配置你的专属开发助手吧!

2026-04-01 16:27:53 376

原创 当所有人都在讨论 AI 工具时,我们已经用 AI 跑通了一家公司

AI 已经不算是一个新事物了。哪个工具更好哪些案例是真是假但在我们这里,这些问题已经不再重要。我们用了一年的时间,把一套系统跑起来。踩过很多坑,也反复推翻过不少做法。现在回头看:AI 是否能参与真实业务执行,其实不是一个需要讨论的问题。它是可以被做出来的。更重要的是:不是先想清楚一切,再开始。而是在运行中,慢慢把事情做清楚先动起来,比讨论更重要。AI 协同声明本文内容源于卓普云真实系统运行,由人定义目标,AI 辅助文字生成与润色。

2026-03-31 16:12:59 147

原创 教程:让OpenClaw一次接入Claude、Qwen、DeepSeek 多个模型

本文将介绍,如何在本地安装的Openclaw中,使用DigitalOcean GradientAI 的Key配置大模型。可用的大模型包括:Claude opus、Claude Sonnet、gtp-oss、Kimi、DeepSeek、Qwen、MiniMax,以及 NVIDIA Dynamo 1.0等数十种大模型。本文中介绍的API 接入方法,对云端部署的Openclaw同样适用。

2026-03-27 17:35:36 322

原创 OpenClaw 多智能体部署:弹性扩展、零运维

OpenClaw 迅速成为构建个人 AI 助手的热门开源框架,可以连接 Slack、微信、飞书等消息平台。随着更多开发者从本地实验转向常驻助手,挑战从构建智能体转变为长期可靠地运营——通常还要跨多个智能体处理不同的工作流。DigitalOcean 现在已推出 OpenClaw on方案来解决这些问题。它专为这个阶段设计——帮助团队从概念验证过渡到持续的生产运营,具有弹性扩展、安全默认配置和更简单的日常运营。此外,App Platform 上的 OpenClaw 为常驻 AI 系统的成本完全可预测。

2026-03-27 17:28:17 221

原创 如何使用DigitalOcean Gradient 平台上的无服务器推理

对于寻求基于大语言模型的解决方案,但又不想费心聘请人员或学习部署自己服务器所需步骤的公司来说,无服务器推理是一个真正的答案。借助 DigitalOcean 的 Gradient Platform,从强大的 NVIDIA GPU 访问无服务器推理变得比以往任何时候都更容易!我们鼓励大家尝试这个新的解决方案!查看我们提供的计算、存储、网络和托管数据库产品,或新注册的用户希望使用 DigitalOcean Gradient AI 平台上的 Opus 4.6、GPT 5.2 等高级模型,可直接联系。

2026-03-26 18:06:00 439

原创 使用 DigitalOcean 实现 Claude Code “低配订阅 + 外部 Token”

在不修改任何业务代码的前提下,引入claudo在体验无感的同时,实现了链路的可控。虽然从表面上看,你的调用方式和交互体验没有变化,且 DigitalOcean 针对的阶梯定价与 Anthropic 官方完全持平,但在长期的团队协作中,这种“工程化路径”会逐渐显现出其不可替代的稳定性与财务透明度。当大模型能力日趋同质化时,未来的技术壁垒不再仅仅取决于“用了什么模型”,而在于“如何更稳、更省、更专业地接入模型”。claudo。

2026-03-25 16:17:26 357

原创 高性能、低成本推理新标准:NVIDIA Dynamo 1.0 现已上线 DigitalOcean 推理云平台

NVIDIA Dynamo 是一个高性能推理服务框架,专为加速和优化大规模生成式 AI 和推理模型而设计。Dynamo 作为一个编排层,运行在 vLLM、SGLang 和 NVIDIA TensorRT-LLM 等引擎之上。你可以把它想象成 GPU 集群的分布式交通控制器,无缝编排跨集群的 GPU 和内存资源,并通过智能路由减少瓶颈。​7 倍性能提升​:与 NVIDIA Blackwell Ultra GPU 搭配使用时,Dynamo 可将推理性能提升高达 7 倍,显著降低每个 token 的成本。

2026-03-23 16:58:16 339

原创 DigitalOcean 亮相 NVIDIA GTC 2026:为智能体时代打造 AI 工厂

人工智能的格局已经从静态模型演变为动态的、长时间运行的智能体。在 DigitalOcean,我们致力于为开发者提供一个专为智能体打造的 AI 推理云平台——让他们无需承担传统基础设施的运维负担和复杂成本。今天,在 NVIDIA GTC 2026 上,DigitalOcean 宣布与 NVIDIA 合作大规模扩展推理能力。我们正在超越基础架构,构建一个专为 AI 构建者和下一代自主智能体提供支持的 AI 工厂(AI Factory)。

2026-03-20 10:51:41 375

原创 NVIDIA B300 vs H200:GPU 参数、性能与 DeepSeek 推理能力解析

GPU显存带宽推理性能适合场景H10080GB3.35TB/s基准中型 LLMH200141GB4.8TB/s2-3x长上下文B300288GB8TB/s8-20x推理模型NVIDIA B300(Blackwell Ultra)的推出,标志着 AI 基础设施进入了一个新的性能时代。凭借​288GB HBM3e 显存​、8 TB/s 带宽和​14 petaFLOPS 算力​,B300 为大模型推理提供了强大的硬件基础。Prefill 吞吐量达到​22,476 TGS。

2026-03-12 17:02:39 647

原创 DigitalOcean 基于 NVIDIA GPU 如何为 Workato 降低 67% AI 推理成本

Workato 在 DigitalOcean 智能推理云上的结果表明,规模化下的推理性能更多地取决于系统如何围绕模型架构,而不是模型本身。对于长上下文、高并发工作负载,冗余的 prefill 计算和不均衡的 decode 负载迅速成为主要的成本和延迟驱动因素。仅仅增加 GPU 数量无法解决这些低效问题。协调路由和缓存感知调度可以做到。

2026-03-10 16:57:43 813

原创 构建企业级 AI 系统,只调用 DeepSeek、MiniMax、Kimi 之类的 API 够吗?

如果 AI 只是一个功能,简单调用 API 完全合理。但如果 AI 是未来的核心产品能力,那么你们需要的就不仅是模型能力,而是系统工程能力。DigitalOcean Gradient 的本质,是在模型之上提供系统抽象层。当 AI 只是一个按钮,它是功能。当 AI 具备统一模型管理、知识库体系、可观测性与评估能力,它才会成为真正的系统资产。真正的门槛,从来不在模型本身,而在系统工程。如果你希望进一步了解 DigitalOcean Gradient AI 平台,欢迎访问。

2026-03-09 16:50:05 376

原创 如何在云端运行Kimi K2.5:从配置到部署全攻略

串行崩塌是指编排智能体尽管有并行能力可用,却默认选择单智能体执行——本质上是选择阻力最小的路径。PARL 奖励包括一个实例化奖励(rparallel),明确鼓励在训练早期生成子智能体。然后这个辅助奖励逐渐衰减为零,使模型最终纯粹优化任务成功,而不是为并行化本身进行优化。虚假并行是一种"奖励黑客"行为,编排智能体生成大量子智能体而没有有意义的任务分解,只是为了夸大并行化指标。rfinish 奖励,激励成功完成分配给子智能体的子任务,确保分解是可行和有效的。

2026-03-09 16:34:36 918

原创 GPU对比:MI350X、MI325X、MI300X、H200、H100

过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3.1,参数量级的飞跃不仅意味着计算复杂度的几何级数增长,更直接推动了对高性能 GPU 的需求井喷。然而,对于大多数创新型企业而言,自建集群面临的高昂成本与运维压力,使得像这类按需付费、灵活扩展的 GPU 云服务成为了解决算力瓶颈的关键。目前,DigitalOcean 提供了覆盖 NVIDIA 与 AMD 阵营的顶级 AI 训练与推理 GPU。

2026-03-04 15:43:13 901

原创 DigitalOcean Gradient AI 推理云平台原生集成 LlamaIndex

DigitalOcean Gradient™ AI 平台现已原生集成 LlamaIndex——这是构建 RAG(检索增强生成)应用最流行的框架之一。这意味着你现在可以直接将 Gradient AI 平台的知识库和 LLM(大语言模型)连接到 LlamaIndex 工作流中,使用你已经熟悉的抽象接口。无需额外的基础设施,无需复杂的设置。只需安装两个包,即可开始构建。

2026-03-04 15:38:06 393

原创 无服务器推理(Serverless Inference)是什么?与传统AI推理部署方式全面对比

搭载 AMD MI350X 的 GPU Droplets上线,提升 AI 推理性能与吞吐,兼顾低延迟与成本可控。

2026-02-26 17:24:48 420

原创 面向 AI 推理的算力升级:AMD MI350X GPU Droplets云服务器上线

搭载 AMD MI350X 的 GPU Droplets上线,提升 AI 推理性能与吞吐,兼顾低延迟与成本可控。

2026-02-24 14:06:40 1017

原创 Claude Opus 4.6 上线 DigitalOcean:百万上下文,一键调用

2025 年,DigitalOcean 云平台上线了 Serverless Inference。DigitalOcean Serverless Inference 是一种托管式的大模型推理服务。你不需要创建 GPU 实例、不用部署模型、不用关心扩缩容,只要通过 API 调用模型,DigitalOcean 就会在后台自动完成推理资源的调度与运行。

2026-02-09 16:58:30 840

原创 如何选择对象存储?Amazon S3 与 DigitalOcean Spaces 深度解析

对象存储是一种将数据作为对象进行管理的数据存储架构,每个对象包含数据本身、元数据和唯一标识符。对象存储在一个扁平的地址空间中,存储系统不强加文件或文件夹的层级结构。对象存储专为处理大量非结构化数据而设计,提供可扩展性、持久性和成本效益。Amazon S3 和 DigitalOcean Spaces 就是对象存储服务的两个知名例子。DigitalOcean Spaces 提供了一个简单直接且可扩展的对象存储解决方案,适合那些希望有效管理数据,同时又不想应对大型云提供商常有的复杂性的开发人员和企业。

2026-02-05 11:41:34 732

原创 教程:构建基于 Coreflux MQTT 与托管数据库的IoT数据管道

MQTT(消息队列遥测传输)是一种轻量级的、发布-订阅网络协议,在物联网生态系统中被广泛采用。专为受限设备和低带宽、高延迟或不稳定的网络设计,MQTT 能够在带宽受限的环境中实现高效、实时的消息传递。Coreflux中的模型用于转换、聚合和计算来自输入MQTT主题的值,并将结果发布到新主题。它们是创建适用于你多个数据源的UNS - 统一命名空间 - 的基础。因此,通过该模型,你可以定义原始物联网数据的结构与转换方式,适用于单个设备,也支持同时处理多个设备(借助通配符+实现)。模型还作为用于可扩展存储到。

2026-02-03 15:26:43 802

原创 10分钟,教你在云服务器部署 Moltbot/Clawdbot

这是一篇在云服务器上部署和配置AI助手Moltbot/Clawdbot的详细教程。

2026-01-29 16:20:43 1769

原创 AI 下半场:Agent 成分水岭,如何选对 GPU 算力攻克推理成本死穴?

前不久,在 AGI‑Next 峰会上,一场持续三个半小时、围绕技术路径与产业走向的高密度讨论,被业内称为“中国 AI 半壁江山聚首”的会议。91 岁的张钹院士、加拿大皇家学院院士杨强坐镇现场,智谱 AI 唐杰、月之暗面杨植麟、阿里通义千问林俊旸、腾讯姚顺雨四位头部 AI 企业的核心技术负责人罕见同台。讨论的核心并不在于“谁的模型参数更大”,而是集中在三个问题上:中美 AI 技术竞争将如何演化?下一阶段真正的技术分水岭在哪里?以及,智能体(Agent)是否会成为 AI 落地的主战场。

2026-01-27 17:17:25 1068

原创 vLLM 推理 GPU 选型指南:显存、KV Cache 与性能瓶颈全解析

本文系统解析 vLLM 推理运行机制,深入讲清 Prefill 与 Decode 差异、KV Cache 显存增长逻辑及并行开销,结合主流 GPU 架构,对不同模型规模下的显存与性能选型给出清晰参考。

2026-01-23 17:39:59 1751

原创 海外云 AWS、GCP、Azure 与 DigitalOcean 的核心区别有哪些?

深度对比 AWS、Azure、GCP 与 DigitalOcean 的性能、带宽成本及 AI 算力差异,为中国出海企业技术负责人提供专业、务实的云服务选型指南。

2026-01-21 15:23:25 1536 1

原创 如何编写和部署Agent SKill?

Agent Skills 是一种非常优秀的方式,用于标准化 LLM Agent 的功能能力。它们使用户能够以结构化的形式,为智能体添加和增强各类能力。具体的实现方式取决于你的 Agent 工作流,但目前已经有越来越多的 Agent 服务可以开箱即用地支持 Skills,其中包括 Claude Code、Codex 和 VS Code 等,这些都是已经采用该标准的 Agent 提供方。接下来,你可以添加更多 Skills,并根据项目需求为它们扩展额外功能。

2026-01-19 16:37:11 1810

原创 DigitalOcean携手Persistent达成战略合作,让 AI 更亲民、更易扩展

Persistent 与 DigitalOcean 的此次合作,正是为了系统性地破解这些障碍——将 Persistent 在 AI 工程领域的深厚积累与平台创新能力,与 DigitalOcean 强大的智能体云基础设施及 AI 平台相结合。我们与 DigitalOcean 的合作正是这一转型的典范——将 Persistent 在 AI 工程领域的专长与 SASVA 平台,与 DigitalOcean 的智能体云相结合,帮助客户自信地将 AI 投入生产运营。我们正携手推动 AI 解决方案的大规模落地。

2026-01-19 10:58:04 553

原创 技术解码:Character.ai 如何实现大模型实时推理性能 2 倍提升

Character.ai与DigitalOcean、AMD深度协同,通过从DP1/TP8/EP8到DP2/TP4/EP4的配置演进及FP8等优化,实现推理吞吐量翻倍,达成千万美元级合作。

2026-01-16 14:06:06 3626 1

原创 DigitalOcean 赋能 Character.ai:推理吞吐量翻倍,成本直降 50%

DigitalOcean的推理云平台与AMD Instinct™ MI300X/MI325X GPU深度协同,成功将Character.ai的生产环境推理吞吐量提升2倍。该平台通过硬件感知调度和优化运行时,在严格延迟标准下,使单Token成本降低50%,并支持日均10亿次查询的高并发需求。

2026-01-15 14:24:30 1416

原创 DigitalOcean容器注册表推出多注册表支持功能

此前,虽然一个 DigitalOcean 容器注册表(DOCR)账户可以创建多个团队,但每个团队仅限于一个容器注册表。通过此次更新,专业版计划的客户现在可以在单个团队下创建最多 10 个注册表,每个注册表都包含其独立的一组仓库和配置。此架构专为管理不同环境(如开发、预发布、生产)或分布式团队的用户设计,允许进行分隔化的注册表管理。

2026-01-12 21:10:03 739

原创 英伟达、AMD 同步涨价,企业如何锁定 2026 年的低价 GPU 云算力?

当算力变成一种像石油一样的“战略储备”时,等待往往意味着更高的成本。在英伟达和 AMD 全线调价的倒计时里,提前布局稳定的云端资源,或许能让你在 2026 年的 AI 竞赛中省下一大笔不必要的开支。

2026-01-08 13:06:40 2600

原创 Ubuntu服务器快速上手:初始配置与安全设置教程

如果意外地在命令中添加了尾部斜杠,rsync 将复制 root 账户 ~/.ssh 目录的*内容*到 sudo 用户的主目录,而不是复制整个 ~/.ssh 目录结构。文件将位于错误的位置,SSH 将无法找到并使用它们。要使用 SSH 密钥以普通用户身份登录,您必须将本地公钥的副本添加到您新用户的 ~/.ssh/authorized_keys 文件中。由于您的公钥已经在服务器上 root 账户的 ~/.ssh/authorized_keys 文件中,您可以使用当前会话将该文件和目录结构复制到您的新用户账户。

2026-01-07 15:18:38 974

原创 2026 年云 GPU 服务商选型指南:如何为 AI 工作负载选到真正高性价比的算力平台

本文围绕 2026 年云 GPU 市场,结合训练、微调与推理等典型 AI 工作负载,对比主流平台差异,给出兼顾性能、成本与开发体验的选型方法论。

2026-01-06 15:37:08 2687

原创 长文档也能稳健推理:QwenLong-L1.5 的记忆增强架构与实战部署指南

QwenLong-L1.5模型,通过后训练与内存框架解决长上下文推理难题,支持超长文档处理,并推荐在DigitalOcean GPU上部署。

2026-01-04 16:47:35 1439

原创 Ubuntu/Debian VPS 上 Apache Web 服务器的完整配置教程

在虚拟主机定义内部,包含服务器如何处理文件系统中不同目录的配置。Apache 将按路径从短到长的顺序应用这些规则,因此后续配置可覆盖先前设置。

2025-12-31 14:02:25 977

原创 加速 JavaScript 开发:DigitalOcean 应用托管现已原生支持 Bun

App Platform 现已原生支持 Bun 运行时,无需配置即可享受极速构建与部署,为现代 JavaScript 应用提供全栈加速。

2025-12-29 15:28:05 1130 4

原创 想在云上低成本部署高性能Agent?MiniMax-M2 + DigitalOcean实战指南

A:模型用 … 把中间推理与最终答案分开,方便多轮对话中保持连贯的逻辑链。

2025-12-26 15:29:21 1412

原创 从零开始,用 n8n 设计可扩展的自动化工作流

n8n 是一个基于节点(node)的开源工作流自动化平台,工作流中的每一步都以一个节点表示。它与 Zapier 等工具类似,但在灵活性和对高级、AI 驱动自动化流程的支持方面更强。如果你在日常工作中还没有使用 AI 自动化工具,很可能正在错失巨大的效率提升机会。通过 n8n,你可以轻松连接各种应用、服务与 API。借助 DigitalOcean 的一键应用(1-Click App),你可以在安全、可扩展的DigitalOcean Droplet 云服务器上快速部署 n8n,无需复杂配置。

2025-12-24 16:07:54 982

原创 代码优先!DigitalOcean Gradient AI 知识库迎来重大升级

DigitalOcean近期升级了Gradient AI知识库功能,推出全新“代码优先”体验。该功能允许开发者完全通过代码创建、管理和查询知识库,以简化构建RAG系统的流程。目前此增强功能已进入公共预览阶段。

2025-12-23 11:48:39 615

原创 DigitalOcean推出AI智能体开发套件(ADK),让你的 AI Agent 从原型走向可用

这是一款代码优先的 SDK,支持你直接在现有开发环境中构建、测试和部署多步骤智能体工作流,兼容 LangGraph、LangChain、CrewAI 等主流 Python 智能体框架及自定义智能体系统。全球开发者正面临一个共同的难题:构建 AI 智能体的原型越来越简单,但要将其转化为可靠、可测试、可投入生产的方案却愈加困难。编排大语言模型交互、管理运行状态、连接函数调用、集成多种工具、评估性能表现、追踪故障原因以及部署到生产环境,往往需要编写复杂的定制代码并依赖零散的工具组合。

2025-12-22 15:42:14 1179 1

原创 日处理数千万 IoT 消息,Datacake 如何利用 DigitalOcean 扩展全球业务

2015 年,当 Lukas Klein 与合伙人共同创立 Datacake 时,想法其实很简单:让物联网(IoT)变得更容易。“那时候,”Lukas 回忆说,“它已经被称为 IoT 了,但大家并不真正清楚 IoT 到底意味着什么。”在与德国工业企业合作的过程中,Lukas 和他的团队发现了一个共性问题——许多客户都面临着类似的数据连接难题。正是在这种背景下,他们决定打造一款能够解决这一问题、并且具备可扩展性的产品:​。

2025-12-19 15:36:44 689

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除