• 博客(1957)
  • 收藏
  • 关注

原创 赛博斗蛐蛐:9大模型决战三国志,天命在谁?

我猜是这样的,当Gemini面临决策的时候,一系列关键词比如 守城,劣势,粮草,三国等等,在语义层面的关联性中LLM发现了竖壁清野这个关键词概率非常高,所以以此为策略,然后再根据这个策略完美执行操作。MiMo 的外交是三方中最精明的。Kimi作为国产模型,也同样颠覆了我对他的看法,最后的比赛他甚至一度是优势者,存在很多夺冠的可能性,要知道他的对手可是claude和gemini,而他经常出兵慢,回过头来想想或许正是他的策略,毕竟中后期他的优势都来自于稳健的发展和较少的战斗频率(和claude比).

2026-04-03 08:46:16 569

原创 Claude Code是怎么知道你在骂他的?这 12 条发现值得关注

确实存在——5,500+ 行,集成了消息队列、工具装配、MCP 编排、会话状态、权限、分析、文件持久化和优雅关闭,基本上一个文件干了所有事。对抗虚假声明——"不要在输出显示失败时声称所有测试通过,不要压缩或简化失败的检查来制造绿色结果"。完整的 KAIROS 是一个持续驻留的守护进程,能感知你在不在电脑前、主动寻找有用的工作做,更像是住在终端里的全职同事。源码里藏着一个叫 "Buddy" 的电子宠物系统,完整度令人惊讶——这不是一个 TODO,而是一个从数值系统到 ASCII 动画都实现了的完整功能。

2026-04-02 08:46:21 510

原创 逆向深扒Claude Code源码,我发现了什么!?

Anthropic 内部用户获得更严格的质量控制 prompt、更好的验证机制(独立 Verification Agent)、以及针对 model 弱点的专门对策(如 Capybara v8 的 29-30% 错误声明率对策)。这不是代码混乱的标志——它是整个 Agent Loop 的心脏,所有的流式处理、工具调度、上下文压缩、子代理管理都在这个文件中协调。这种"胖核心"设计是刻意的:保持核心循环的原子性,避免分散到多个模块导致的协调复杂度。核心价值:Fork 代理的工具输出不会回到主代理的上下文窗口。

2026-04-01 16:23:03 583

原创 一文讲透如何构建Harness——六大组件全解析

本文将从"裸模型的四个硬伤"出发,逐一拆解 Harness 的六大组件——文件系统、Bash + 沙箱、记忆(AGENTS.md)、Web Search + MCP、上下文工程、编排 + Hooks——带你看清 AI Agent 真正的竞争壁垒,不在模型层,而在 Harness 层。如果你用过 Agent 做复杂任务,你一定有过这样的体验:一开始 Agent 的表现很好,但随着对话变长,它开始"变笨"——遗忘之前的约定,重复之前犯过的错误,甚至对同一个问题给出前后矛盾的回答。对于简单的问答场景,这无所谓。

2026-04-01 08:46:39 542

原创 Harness Engineering 来了,SDD 还有意义吗?

他们的解法是把「品味」编码进规则,然后用一个定期运行的「doc-gardening」Agent 自动扫描漂移、发起修复 PR——「技术债务就像一笔高息贷款,不断地以小额贷款的方式偿还,总比让债务不断累积要好」。代码仓库本地的、已版本化的工件,才是 Agent 所能看到的全部。在 Vibe Coding 模式下(即不做规划、随意向 AI 提需求的开发方式),大量设计决策、跨服务约定、「为什么不选另一个方案」的讨论,全部停留在一次性的 AI 对话里——下一个人,或者下一次 AI 会话,完全无从获取。

2026-03-31 08:46:56 256

原创 零废话!一文讲透从0构建AI Agent

每个工具都要写一套"定义→解析→执行"的胶水代码。上下文管理就是在"记住足够多"和"别超标"之间找平衡,常见策略包括滑动窗口、摘要压缩、RAG 检索增强。上下文窗口是 Agent 的"工作记忆",但它有硬性限制。LLM 负责"动脑"决策,代码负责"动手"执行。这是从"聊天机器人"进化到"Agent"的关键一步。每次调 API 都把完整对话历史发过去,LLM 本身是无状态的,"记忆"完全靠客户端的数组模拟。这样 Agent 一开始就知道自己"在哪里"、"手头有什么",不需要先花一轮工具调用去探索环境。

2026-03-26 08:46:21 583

原创 距离AI把小编我裁掉还有72小时

这是一个基于 OpenClaw 开源生态打造的本地化 AI Agent 助手,已于上周开启全量公测,无需复杂配置,三步即可上手,自带安全防护,支持微信直连绑定,内置多款优质国产大模型,现阶段也是完全免费使用,基本上前面提到过的痛点都可以靠它解决。对了,这里特别强调一点,上面的截图让产品同事汗流浃背,再三找我确认 QClaw 思考过程中优美的“草”字说法,不会是默认出现的吧?AI 好,AI 得学,但更重要的是,在你的工作和生活里,哪些东西是能结构化地被 AI 所接入的,不要死守着那些脏活累活不放。

2026-03-25 08:46:44 618

原创 龙虾盛宴下的冷思考

举个我自己的例子:在电商项目里,商品列表页的 CRUD 逻辑、TypeScript 类型定义、接口联调的模板代码,这些任务交付标准很明确,接口对了、类型没报错、列表渲染正常,交给 Agent 做又快又稳。当然这个做法我还在摸索,效果不确定,毕竟前面刚说了 Agent 写的代码质量有问题,凭什么相信 Agent 的审查更靠谱?LLM 优化的目标是「看起来合理」,不是「行为正确」。他的原话大意是:不喜欢看文章的人不会因为有了 AI 就开始看,真喜欢看的人也不需要 AI 整理,算上折腾的时间省没省还不好说。

2026-03-24 08:46:39 336

原创 从架构到代码:深入理解 OpenClaw 的双源记忆系统

这正是 OpenClaw 在记忆上的平衡,通过把历史会话记录(JSONL 格式)压缩成记忆(Markdown 格式),来避免上下文溢出的问题,赋予系统记忆的能力,但与此同时带来的问题也显而易见,在进行压缩时难免会有信息的流失,这在大多数场景下是合理的,但对于"具体几点"这类精确信息确实是弱点。从直觉上看,这是符合人类大脑的记忆机制的,人的记忆也是由一个个重点片段组成的,我们能记住的也只是某个特定的时刻、某件具体的事件,把这些片段串联起来才形成了人类所谓的记忆,至于每天发生的琐事,终究会随着时间而被淡忘。

2026-03-19 08:46:22 686

原创 兄弟!你真的懂 Skill 吗?

它把 Skill 系统和 LLM 代码能力的结合推到了极致。模式二中 LLM 是"调用者",模式三中 LLM 是"开发者"——它不只是按说明书操作,而是理解了库的 API 后,自己设计算法、组合函数、生成新代码。而且 LLM 理解自然语言文档的能力,远强于理解结构化 Schema——这是 Anthropic 选择"教 LLM 写代码"而非"注册 function calling"的根本原因。他们没有把 Skill 做成"给 LLM 注册更多 API"的系统,而是做成了"教 LLM 更多知识"的系统。

2026-03-17 08:46:52 334

原创 一文搞懂爆火的SKills原理及实践案例

当我们回答完了三个问题,其实就完成需求的设计环节,下一步就是让AI分任务实现,而实现的过程,恰恰和我们的设计是一一对应的,即先完成实体的新增,然后再去完成流程函数(细节全部mock,这个时候直接就可以测试了),最后在补充规则细节!除了自己的去总结,其实也可以利用AI工具,当你用AI解决完一个新问题的时候,别急着关闭对话框,的增多,当你给AI装上了一大堆的SKills,一个工程化的问题随之而来,我们知道AI在工作的时候,并不是一个无限的资源空间,而是运行在一个特定大小的桌子上。因此,面对一个新需求,

2026-03-13 08:46:23 561

原创 全网最细!OpenClaw本地部署教程和常见问题汇总

总的来说对于小白来说相对比较困难,不要太相信网上说十分钟部署好,中间不知道省略多少认证和准备,所以我把自己遇到的问题以及在网上检索到大多数人常遇到的做了一个汇总整理,当你信心满满找到一个教程遇到卡点,不妨搭配本文来食用,相信你可以2、3个小时就可以拥有一个真正的私人助理。这是导致很多用户困惑的根源,很多博主也在视频开头提过,但是大都是补录的,一些早期文档教程中可能还是旧的名称,注意复制一些命令时,最好手动替换成最新的名字——作为非程序的出身,加上国内环境问题,实现本地部署一个满血版的。

2026-03-11 08:45:40 1543

原创 RAG优化字典:20种RAG优化方法全解析

把 RAG 流程看成强化学习:状态(当前 query、已选上下文、历史回复与奖励)、动作(重写 query、扩展/过滤上下文、生成回复)、奖励(如生成回复与标准答案的语义相似度)。HyDE 的做法是:先用 LLM 根据问题生成一段“假设的”答案文档(风格、长度接近真实文档),再用这段假设文档的嵌入(而非原始 query 的嵌入)去检索真实文档,从而拉近 query 与 document 的表示距离。用户查询时,既匹配块内容,也匹配这些预生成问题,从而拉近“问句”与“陈述句”的语义距离。

2026-03-05 08:45:30 334

原创 深入解析OpenClaw上下文窗口压缩方案 :一切都是为了效果与省钱

最近很火的 OpenClaw 的出镜率是越来越高了,内外网的技术文章,新产品的问世,Mac Mini 的涨价,自媒体的宣传层出不穷。我一直也在做上下文相关的事情,现在我们就拨开虾外壳,看看它内部详细是如何调味的(进行上下文窗口管理的)。但由于 pruning 只在 cache 已过期时执行,这次 miss 的额外成本仅是"cache write"(比普通 input 贵 25%),而不是"本可以 cache read 却 miss 了"(cache read 便宜 90%)。摘要失败时取消而不是丢弃历史。

2026-03-04 08:45:53 1061

原创 200行代码实现Claude Code青春版

Y开发同学听说Coding Agent辅助项目代码开发很方便,于是挂上整个代码仓库就开始了AI Coding,但是业务代码往往有很多的代码依赖,AI上下文没那么大,并不是真的把你的代码仓库都读进去了,那在缺失代码依赖信息的情况下你是不能指望AI写出满意的代码的。但当用于完整项目中时就一言难尽了,早期我用cursor最常遇到的是AI"小题大作",直接往项目里各种新增脚本,新增大量的代码,有被无语到,以至于使用频率降低到最后退订(当然这里还存在我自己的问题,对于让AI Coding的需求不够具体)

2026-03-03 08:46:06 328

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 400

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 628

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 642

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 312

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 300

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 623

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 274

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 284

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 541

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 251

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 517

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 247

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 324

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 321

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 553

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 600

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

我们读了大量论文和博客,看到业界在讨论"多智能体协作"、"Agent 编排"、"知识图谱"……把 AI 当成团队的新成员来培养——给它入职手册(AGENTS.md),教它项目知识(context/),让它记住经验(process.txt),最终成为团队的共享能力。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 521

原创 AI 工程化落地实践:推翻“完美架构“,回归提示词本质

Claude 通常开箱即用生成格式良好的代码,Hook 处理最后 10% 的格式化,避免后续 CI 中的格式化错误。Claude Code 创作者的 Claude Code 使用经验:13 个核心实践,本文多处引用了这些来自一线的经验为我们的理论提供了有力佐证(。我们需要做的不是设计复杂的 Agent 编排,而是把"业务需求"、"技术规范"、"项目约定"、"历史经验"组织成 LLM 能理解的格式。我们做的越多,它就变得越不可靠。与其创造很多小的、精确的工具,不如创造大的、表达力强的工具,然后信任模型。

2026-02-27 08:46:12 486

原创 如何从零开始实现一个 AI Agent 框架(理论+实践)

Context Engineering:狭义的上下文工程特指提示词Prompt的工程实现(如Rules、Claude.md以及AGENTS.md等),而广义上的上下文工程其实也包含LLM使用外部工具这部分(比如Skills,它是工具与提示词结合的典范)。毫无疑问,当前极简版的AI Agent框架在程序健壮性、安全性、功能性(如流式输出)以及优雅性(如Tools注册)都有很大改进空间,但是不容否认的是它五脏俱全,简单清晰,可以帮助我们摒除那些复杂冗长的组件库,看清Agent的本质。

2026-02-26 08:46:23 865

原创 2026 AI趋势预测,全球科技巨头与顶尖机构研判

物理 AI 其是生成式 AI 后的核心发展方向,生成式 AI 已成过去,未来属于 “Agent AI + 物理 AI”;“AI + 科学(AI for Science)” 成为科研范式变革核心,AI 大模型与科学计算结合,可自主提出假设、设计并验证实验,在生命科学、材料科学、天体物理等领域加速 “从 0 到 1” 突破。微软、NVIDIA、央视、斯坦福 HAI 等突出AI在垂类场景的落地,的尤其是应用于医疗、制造、交通、科研、终端硬件、法律等行业。AI 手机、AI 硬件成为行业增长关键;

2026-02-25 09:10:59 617

原创 马上领!6666个春节红包封面

祝你马年好运开挂,项目一路绿灯、需求不改回滚不炸;年终奖 ++、涨薪 ++、Offer ++;钱包鼓鼓、心情爽爽!同时,欢迎大家关注腾讯云开发者视频号,新的一年除了获取更多技术资讯、直播以外,还能多一个获取鹅厂周边礼品的渠道~别忘了关注腾讯云开发者公众号,常来文章下坐坐~关注腾讯云开发者,一手技术干货提前解锁👇。腾讯云开发者社区在此提前祝大家新春快乐!1111 个红包封面直接领!回复关键词领取3款红包封面。9 点、11 点、13 点。扫描下方二维码即可获得。分享抽取隐藏款红包封面。到朋友圈或者社群并截图。

2026-02-11 09:00:43 395

原创 “痛点”到“通点”!一份让 AI 真正落地产生真金白银的实战指南

作为公司流程治理、方法论、数字化与绩效管理的中枢,BPMN 流程改造 COE 需承担流程治理与标准制定、方法论与 To-Be 设计、绩效 KPI 管理、数字化自动化协同、人才培育与变革管理等核心职责,角色配置应涵盖 COE 流程长、流程架构师、流程分析师、数字化流程顾问及 BU Process Owner,推动流程改造从项目化走向制度化、数据化。最终,我们期望透过这样的流程改善,可以提升子阶段的处理效率,例如 C_01 时找阶段耗时减少 Y%,或是整体流程的提升,例如 C_04 阶段作业时间减少 Z%。

2026-02-07 18:46:22 457

原创 港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?

在探讨 AI 如何赋能产业时,必须区分不同的视角。聪明人做事,第一次投入 120% 精力无妨,第二次压缩至 80%,第三次降至 50%,在这个过程中总结创新,提升效率与质量,才是真正的成长,也是人机协同时代的核心竞争力。面对 AI 对传统教育的冲击,他认为未来的架构师应通过提问与鉴赏力,向数据稀疏的“无人区”进发,实现从人才到人物的跨越。马斯克推崇的物理学第一性原理,与《易经》“不易、变易、简易” 的内核相通,皆是对本源的探求,都在启示我们:在剧变的时代,唯有穿透表象,才能捕捉到真正决定未来的底层逻辑。

2026-02-07 17:27:53 672

原创 智效跃迁,架构无界,第三届腾讯云架构师峰会圆满落幕!

2025 年 12 月 27 日,由腾讯云架构师技术同盟与腾讯云 TVP 联合主办的第三届腾讯云架构师峰会在北京富力万丽酒店成功举行。本次峰会以“智效跃迁 架构无界”为主题,汇聚了众多技术领袖与架构师,共同探讨 AI 浪潮下架构师群体的价值重塑与技术变革。现场思想碰撞激烈,实践分享深入,勾勒出一幅技术人在智能浪潮中进化与赋能的新蓝图。主论坛在腾讯云架构师技术同盟主席 毛剑和腾讯云架构师技术同盟活动组织主席 王晓波的开场主持中拉开序幕。两位主席与现场架构师同仁们共同回顾了同盟自 2024 年 12 月 28

2026-02-07 17:23:31 667

原创 用Go重构C++老系统,一次降本82%的极致之旅

这就好比你去银行存钱,柜员(服务器线程)必须当着你的面(同步),跑去金库(CMEM),确认金额,存进去,然后再跑回来告诉你“好了”。如果是平时还好,但到了腾讯旗下国民级体量的游戏搞活动时,成千上万个玩家同时挤在柜台前,甚至同一个玩家的多个行为并发上报(比如同时触发“登录”和“等级提升”),面临的压力就非常大。问题: 在 Get 和 Commit 之间的时间窗口(Time Window),其他线程随时可能修改数据,导致 QuickCommit 频繁返回失败,日志中充斥着大量的重试错误。

2026-02-04 08:46:02 669

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除