- 博客(467)
- 收藏
- 关注
原创 AI 做幻灯很炫,但你还能掌控它吗?
也就是说,咱们不让 Remotion Slides 生成一整套独立的幻灯,而是让它生成一个个组件 —— 每个组件是一段动画,可以像积木一样嵌入到我的 Reveal.js 里,成为大纲中的一个节点。我想把一段漂亮的动画塞进去 —— 但现在是两个东西:原来那个是 Roam 大纲驱动的 Reveal.js,新的是一个独立的 HTML 文件。这种端到端看似方便,实际上。想想看,大纲就是你的控制面板 —— 条目改个顺序,或者拖一下层级,幻灯片跟着变。我需要的是:该用动画的时候用动画,该用大纲的时候还能回到大纲。
2026-03-30 10:22:38
198
原创 Get 笔记为什么又回到了我的知识工作流?
你录了一段东西,它会主动向外关联 —— 不光是你自己的笔记,还会接上得到平台的书库和课程库。但是因为 Get 笔记可以被 Claude Code 访问,于是当我检索笔记的时候,可以把图片一起调出来,这就非常让人欣喜了。当时它打动我的,不是漂亮的外观,而是能把一堆原本散落各处的能力攒到了一起。这里大部分的记录我都同意,只是日记中说我今天只工作了 10 分钟,我是不认的。公开网络给你的是大家都能搜到的信息,而个人笔记里沉淀下来的,往往是你自己的问题意识、判断路径,甚至是迸发的灵感。足够你好好翻一阵子。
2026-03-25 17:18:41
565
原创 Claude Code, Codex, OpenClaw,我是怎么让它们配合干活的?
当时我对 OpenAI 那套工具的喜欢程度要高于 Claude Code,因为我发现有的时候 Claude Code 在那转来转去解决不了的问题,OpenAI 直接一击而中。但如果你手里现在有上面咱们讨论的这几个工具 —— 也就是至少有一个高能力的 AI Agent 加上一个高能力的大模型 —— 你压根就不需要再自己手动去设置配置、去理解它是怎么做的。相对而言,那种三天两头需要压缩上下文的情况,一方面让你必须耐心地等待,另一方面用起来也小心翼翼,生怕压缩到后来出现「无法再压缩」的惨状。对,就这样就可以了。
2026-03-17 19:32:18
255
原创 RAG 过时了吗?
RAG 没有过时,过时的只是 2023 年那种最简版的做法 —— 今天的 RAG 已经和长上下文、重排序、智能检索融合在一起,成了更大系统的一部分。当你问的不是那种靠关键词就能命中的问题 —— 比如「过去两周我的笔记里有哪些主题在反复出现」「某个概念在不同论文之间是怎么演变的」「帮我梳理一条跨文档的关系链」—— 这类全局性的、抽象的、需要在多个文档之间做关联推理的问题,普通的向量检索确实够呛,图结构在这里能发挥独特的作用。这样即使模型在云端,它接触到的也只是和当前问题相关的几个片段,不是你的完整知识库。
2026-03-13 11:38:12
537
原创 如何用 YouMind 绘制出你家乡地标景观微缩地图?
然后,你得把 CITY_NAME 换成城市名,MAP_SURFACE 想好用什么材质,LANDMARK_1、LANDMARK_2、LANDMARK_3 逐一填上地标名称,还有自然元素、城市生活元素、标志性交通工具……但它知道你有这些地标,把它们画在一张地图上,我觉得对于 2026 年初的 AI 来说,已经足够有趣了。输入城市名,等几秒钟,看看 AI 认不认识你的家乡 —— 然后欢迎你告诉我,它画得怎么样。天津之眼横跨海河,五大道的小洋楼掩映在梧桐树后面,鼓楼、古文化街都有呈现,还有津塔从地图上拔地而起。
2026-03-04 20:19:29
526
原创 文献综述能放心交给 AI 吗? 聊聊如何搭建「不翻车」的科研工作流
更要命的是,即使开着搜索,生成引用时的幻觉问题依然严重——模型可能把搜到的真实信息和训练数据里的模式混在一起,编出一条「看起来特别像真的」的引用。第一种是「混搭」:把几篇真实论文的作者、标题、期刊名混在一起,拼出一篇不存在的论文 —— 看起来完全可信,因为每个元素都是真的,只是组合是假的。以 Elicit 为例,你输入自然语言描述你的研究问题,它从真实论文中检索结果,每条结论都附带句子级引用 —— 不仅告诉你「哪篇论文支持这个观点」,还精确到「论文里哪句话说了这个」。我在好几年前,就用视频给你介绍过它。
2026-03-02 08:34:06
288
原创 AI Agent 查不出自己的错,怎么办?
第一次修的时候,它看到的那些「问题」 —— 空配置文件、不完整的说明 —— 并不是根因,只是恰好撞见的表面症状。补了一条指令:启动独立的 Agent,做完全相同范围的检查 —— 主观维度(叙事视角、行为归属、事实准确性)和客观维度(格式、拼写、文件完整性)都要覆盖,跟主 Agent 的职责一模一样。而且 —— 这才是关键 —— 它完全没有让任何人来校验它的修复方案。2 月 17 日,我发现产出物的开头出现了一个不该有的「总帽」 —— 就是那种概括全文的导引段落 —— 而且删掉了一些生动的原始内容。
2026-02-27 14:36:29
299
原创 你把AI订阅给第三方工具用,Anthropic、OpenAI和Google的反应天差地别
Google 无预警封禁用户的开发者接口(Antigravity、Gemini CLI),订阅费继续照扣,客服形同虚设。Google 直接禁用了用户的 Antigravity 和 Gemini CLI 访问权限 —— 网页版 Gemini 对话不受影响,Gmail、Drive 照常使用,但每月 250 美元的订阅费继续照扣,没有解释,也没有善后。Claude Max 的 200 美元月费提供了接近无限的 token 使用量 —— 但这是针对官方客户端 Claude Code 设计的,有内置的速率限制。
2026-02-21 10:44:38
749
原创 如何把幻灯制作 Claude Skill 从「能用」磨到「好用」?
语言变成了英文 ——Skill 里明明有语言规则,但写的位置太深,Claude Code 生成到一半就忘了。文字溢出了容器 —— 有个让元素「从小变大」弹出来的动画效果,暗色主题下大小刚好够用,换了白底主题排版参数跟着变了,元素一弹出来就撑破了边界。Claude Code 端到端帮我生成了 12 页幻灯片 —— 有 SVG 矢量数据图表,有分步动画,有演讲者备注,语言是中文,排版也整齐。不仅如此,Claude Code 还在我的提示下,把测试中踩到的教训总结成了规则,自己写回了 Skill 里。
2026-02-19 09:56:54
380
原创 <span class=“js_title_inner“>我一行配置文件没写,却搭出了 OpenClaw 整套系统</span>
八个步骤,把 Clawdbot 的文档翻了个底朝天。这套系统,从 Telegram 发消息,到 VPS 上的 OpenClaw 调度,到 Claude Code 执行任务,再到结果回传手机,中间涉及 systemd 服务管理、环境变量传递链、大模型消息机制、SOUL.md 行为规则、多模型路由、双机器人架构,林林总总大概十几个配置文件。我跟 Claude Code 说了一句话:「这个项目我想装在 VPS 上,给它配个 GLM 模型,通过 Telegram 布置任务,让 Claude Code 实际执行。
2026-02-02 09:45:32
546
原创 我一行配置文件没写,却搭出了 OpenClaw 整套系统
八个步骤,把 Clawdbot 的文档翻了个底朝天。这套系统,从 Telegram 发消息,到 VPS 上的 OpenClaw 调度,到 Claude Code 执行任务,再到结果回传手机,中间涉及 systemd 服务管理、环境变量传递链、大模型消息机制、SOUL.md 行为规则、多模型路由、双机器人架构,林林总总大概十几个配置文件。我跟 Claude Code 说了一句话:「这个项目我想装在 VPS 上,给它配个 GLM 模型,通过 Telegram 布置任务,让 Claude Code 实际执行。
2026-02-02 09:45:32
312
原创 一个人、一周、三个名字,OpenClaw 到底发生了什么?
技术上,它的核心是一个叫 Gateway 的长驻进程,像一个总机 —— 所有消息平台(WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Teams、Matrix,总共 13 个以上。你可能在朋友圈、Twitter 或者 Hacker News 上看到过零星的碎片 ——「Clawdbot 改名了」「Anthropic 发了律师函」「有人的 API key 泄露了」—— 但这些碎片拼不成一个完整的故事。不是能不能做的问题,是敢不敢用的问题。
2026-02-01 10:24:20
827
原创 如何用 Claude Skill 做教学视频?
不过安装 Claude Code 框架容易且免费,可想驱动它真正干活儿,要么你有 Anthropic 官方订阅,要不然你需要有一个平替模型的 Coding Plan,这样才比较节省。它写出来的代码,不是瞎猜,而是符合框架规范的。你还得用生动的方式,体现出你要教的这些元素,以及它们之间的互动关系。前面说了,我对前端不了解,所以我的态度是:如果你需要我懂得 React 才能使用,那这个东西我就不用了。有了这些经验,你就不再只是「拿来主义」,而是可以根据自己的需求,定制个性化的 Skill 了。
2026-01-25 16:06:31
640
原创 Skills、Commands、Agents、Plugins——这些概念你分得清吗?
假设你是一个技术团队的负责人,你花了两周时间配置了一套完美的 Claude Code 工作流:有代码审查的 Skill,有部署的 Command,有自动 PR 审核的 Agent。你可能已经发现了,这三个概念其实是一个递进关系:从最简单的 Commands(你按,它做),到 Skills(它知道怎么做,根据上下文自动加载),再到 Agents(它自己决定做什么、怎么做)。你描述了一个任务,Claude 自己判断「哦,这个情况我有现成的操作手册」,然后自动加载。当你收到快递的时候,你收到的是一个「包裹」。
2026-01-21 19:26:07
894
原创 如何用 Claude Skill 做一套会自己干活的知识库?
有些工具的体感让我记忆深刻,但更多的工具只在短短一段时间内留下印象,现在你冷不丁让我回顾,可能我连想都想不起来。别说是我自己平时的零散笔记,就仅仅是我正式发布过的文章,现在让我合上电脑一一如数家珍地复述,恐怕我也做不到。但你如果看过那篇文章就会发现,我不仅指出了以前介绍过的工具是什么,还进一步给出了延伸阅读的链接,帮助读者快速定位。如果你对我很了解,你会知道我上次做这么完整的索引,还是在 2018 年。那时候让我比较惊叹的,一是它找资料之全和准,二是它可以帮咱们做播客,以不同的方式提供信息消化的渠道。
2026-01-18 09:36:00
759
原创 我的 AI 工具日常使用与工作流是怎样的?
曾经是我的「长文主笔」。它在长上下文保持和指令遵循方面表现出色,我常用它的 Thinking 模式来处理 2000 字以上的高质量文稿,且在当时是罕见的能从头到尾保持输出风格一致的模型。之前我展示的时候,它还在测试阶段,一次性可以处理 20-100 个参考来源,跑 70 多条搜索,然后整合成一份带大量参考来源的深度报告。这些 Agent 之间有严格的「交接协议」——通过 STATUS.yaml 状态机驱动,前一个环节的输出必须 100% 通过验证(二值化原则,只有 YES 或 NO),下一个环节才能开始。
2026-01-15 18:06:23
679
原创 当产品经理遇到 Claude Skills
陈洋背上双肩包,准备走了,「棠姐,你那套用户调研的方法论,比网上那些烂大街的模板强太多了。这个「围绕」太宽泛了,Claude 在处理复杂主题时,会把「围绕」理解成「相关的都算」,结果生成了一堆只是沾边、但不够聚焦的问题。比如「选择对象」这一步,她曾经犯过一个典型错误:只访谈了活跃用户,忽略了流失用户,结果得出的结论全是偏的。八年来,她积累了一套自己的方法论,从用户访谈的技巧,到需求优先级的判断框架,到 PRD 的结构模板。以前,她是写需求文档的人。所以它的输出,不是随机生成的,而是按照我的思路来执行的。
2026-01-12 08:09:39
773
原创 Claude Skill 快照:给你的 AI 技能迭代加个「后悔药」
比如,你可以创建一个「写作助手」技能,专门帮你按照特定风格写文章。好的工具应该预见用户可能犯的错误,并提前铺好退路。今天要聊的这个工具,是我自己(指导 Claude Code)写的 Skill,叫做 "Skill Snapshot"(技能快照),专门治这个恐惧症,给你提供「后悔药」。它就像一个坐在你电脑里的实习生,你说什么,它就去做什么。你不记得之前是怎么调通的了,那些试错的弯路、那些灵光一现的小修改,全都模糊了。只要你下达备份某项技能的指令,如果系统发现该技能尚未初始化,它就会自动替你完成这一操作。
2026-01-10 18:04:43
1031
原创 Claude Skills 入门:一篇文章搞懂 AI 怎么从「嘴替」升级成「打工人」
前天有人跟你说「MCP」,你还没反应过来,后天又有人聊「Agent」。更重要的是,我会告诉你它跟你已经知道的那些概念 —— 函数、函数调用 —— 到底是什么关系。你可以把函数理解成一个「小助手」。你告诉它要做什么(给它一个输入),它帮你做完后告诉你结果(给你一个输出)。以前的 AI,你问它「今天北京天气怎么样」,它要么从训练数据里瞎猜一个,要么老老实实说「我不知道」。就像一本菜谱不只是「切菜」「炒菜」「装盘」这几个动作的罗列,它还包括「为什么要这样做」「火候怎么掌握」「如果烧焦了怎么补救」这些知识。
2026-01-09 09:38:05
790
原创 如何用 Claude Skill 帮你一句话做深度调研并自动画图?
先搜背景(比如「春秋战国时间线」),再搜实体(「战国七雄是哪几个」),最后搜关系(「合纵连横是谁发起的」)。当你把搜索、整理、绘图这些繁琐的认知负荷(Cognitive Load)都卸载给工具之后,你的大脑就能腾出空来,去思考《红楼梦》里家族兴衰的深层逻辑,去分析战国七雄背后的地缘政治。但是现在有了 AI,我想要的不再是那种「我喂给它数据,它帮我排版」的半自动化工具。足够你好好翻一阵子。这还没完,它搜集完信息后,开始像个老学究一样整理:谁和谁是夫妻(实线),谁和谁是政治联姻(虚线),谁是核心人物(标红)。
2026-01-02 16:00:10
748
原创 NotebookLM + Alma:从知识库挖掘答案,我为什么多绕这一道手?
前几天我在知识星球发了个帖子,原本只是想随手秀两张截图,结果评论区一下子热闹起来 —— 大家的关注点很一致:同一个问题,为什么背后利用的存储检索工具一致,换个入口问,答案就能「详细到离谱」?当我不满足于「把答案说清楚」,而是想让它「马上给我一个能用的东西」,NotebookLM 里面不一定好展开,但在模型自己的工作区(比如 Canvas)里就很顺手。更关键的是,它还能把东西「跑起来」。下面这张图的作用是还原我的真实要求:我让它从回答里挑一个足够好玩的游戏,然后「现在就写一个网页版,让我马上能玩」。
2026-01-01 11:35:56
573
原创 别让 AI 替你「假装读完」:我如何用「做幻灯」倒逼论文精读?
也就是在这个环节,我把论文丢进 AI 工具(这里我用的是 Youmind,你也可以用任何支持长文本与复杂指令的工具),执行我预设好的「论文转幻灯」指令。,帮你快速搭建结构。你把思考的过程外包给了 AI,你以为你掌握了知识,其实你连「雨过地皮湿」的程度都没达到。你获得的不仅是讲解的 PPT,以及针对每一页 PPT 的讲解要领(尤其标注了可能出现问题的地方),以此帮助你躲开陷阱并引发你的思考。如果你不能理解 AI 的这些局限,把这套流程生成的内容当作你阅读论文的终点,而不是起点,那么你才是真正掉进了陷阱。
2025-12-29 16:15:09
660
原创 重器轻用后,你的笔记资料分散各处,怎么办?
可你我都知道,科研世界里常见的残酷现实是,你读文献好不容易冒出的一个好点子,觉得有得诺奖的希望,欣喜若狂。这个问题困扰了我好久,看到您用了许多工具来管理,提示词放在一个工具,收集到的知识又放在另一个工具,自己的学习笔记又放在不同一个工具,那怎么可以去组织好这些存放在不同地方的笔记和知识从而快速找回自己曾经研究过的东西呢。但如果你想像我这样,把论文丢进一个能更好调用大模型、能更顺滑地把上下文喂给模型的环境里,很多时候你就会发现:你选择的标准不应该是「最标准的归档」,而应为「最顺手的加工」
2025-12-20 09:54:28
966
原创 大学课堂学生不抬头,老师怎么办?
哪怕是那些看起来在记笔记的同学,眼神也是空洞的,仿佛只是在把 PPT 上的字搬运到电脑里,灵魂早已出窍。此时,如果有一个能够提供更高频、更即时、更强刺激的输入源(比如手机)出现在手边,大脑几乎会本能地选择——既然听课是被动的,刷手机也是被动的,为什么不选那个爽感更强的呢?中汇总了 14 个国家的数据,指出哪怕手机只是放在桌子上,它的「mere presence」(仅仅在场)就会占用大脑的认知带宽——因为你的潜意识需要分出一部分精力去抑制「想拿起来看一眼」的冲动。于是,我们的对策通常是「管」。
2025-12-13 10:05:39
686
原创 Gemini 3 Deep Think 又贵又慢,究竟有啥用?
第二是归因不够彻底,它指出 AI 不靠谱的根本原因是其「概率性」,也就是不具备确定性、不可复现,而不能坍缩为我文章里写的简单的「讨好」或者「童年阴影」之类的比喻;原始文稿描述从 AI 采集主观意见数据,因为是「无中生有」,所以 Gemini 使用了「造物主」这样的词汇,我觉得有些太过狂傲,所以把它改成了「永动机」这样更为贴切的表述。看到这个输出的时候,我是有点震惊的。抱着「死马当活马医」的心态,我把写到一半的文稿扔给了 Gemini 3 Deep Think,让它帮我看看问题出在哪里。
2025-12-10 08:24:24
435
原创 AI 算不算一种研究方法?
但这其实是没办法的办法。更可怕的是,如果你用 AI 生成的数据去训练新的 AI,这个「反刍」过程会不断叠加,最终导致模型「崩溃」—— 它会逐渐遗忘人类世界的丰富性和多样性,只剩下一个「平庸的平均值」。我们以往大家熟悉的研究方法,比如说社会科学研究方法规范的,大家可能学阿尔巴比的书里也提到的这些方法,就是经过很长时间各种不同的学科,经过验证一步步形成的。我们是认可的,所有的学界,不管国内国外,包括不同的学科,它是一种规范的方法。如果你用AI生成数据,你研究的就不是「人类社会」,而是「大模型的概率分布」。
2025-12-08 16:24:27
583
原创 AI 时代,请停止「做作业」,去创造属于你的「作品」
经历了「原来用户根本不 care 我们觉得很酷的功能」,经历了「推广比开发难十倍」,经历了「原来维护系统还得花钱」,经历了「市场竞争真的很残酷」。你看,我们现在讨论 AI 素养教育,讨论来讨论去,核心议题似乎总是:学生该怎么「用」AI,老师该怎么「教」AI,图书馆该怎么「服务」AI 素养提升。传统的做法是:老师出一个题目,所有小组做同样的系统,期末交作业,打分,结束。他们选了一个「安全」的题目,做了一个「能交差」的系统,演示的时候功能都能跑通,但你能感觉到 —— 这东西做完就会被扔掉,不会有任何后续。
2025-12-05 19:42:54
733
原创 Perplexity 还是「御三家」?聊聊我的 AI 订阅清单与选择逻辑
去年,我使用了您的 Perplexity 优惠码充值了 Pro 会员,感觉挺好的,通常我会对比较重要的或者想了解更多一点的问题,问过 GPT 之后,也会问问 Perplexity(一般选 Claude 或者 Gemini),既能启发我思考的同时也能对冲 GPT 降智的风险。现在到了 Perplexity 续年费的时候,正好碰上 Gemini 3 pro 发布,惊艳于 Gemini 3 的强大,有些纠结要不要干脆直接订阅 Gemini 3 算了,但又舍不得 Claude。这是一个非常实际的问题,而且有共性。
2025-12-01 11:56:28
493
原创 如何用 AI 帮你把论文读透?
AI 可以帮你降低理解的门槛,但它无法替代你自己的思考。这段时间,我一直在琢磨,能不能设计一种交互方式,让 AI 真正起到一位「学术导师」的功用 —— 不仅能帮你看懂论文的字面内容,还能帮你建立学术视野,搭建认知阶梯,培养批判性思维。而现在大多数人用 AI 的方式,大多会停留在最底层的「故事」阶段,因为这符合大多数人懒惰的天性,总是期待「不劳而获」,或者「少劳而获」。我上课的时候,遇到学生这样的举动,懒得去批评,而是直接现场用最新的 NotebookLM 幻灯生成功能,做十几张漂亮的 PPT 出来。
2025-11-29 17:54:10
467
原创 AI 时代,你的知识管理工具该扔了吗?
传统的以「存储和检索」为核心的知识管理正在消亡,取而代之的是强调「流程折叠」与「认知握手」的新一代思维辅助环境。这时候,如果你还守着陈旧的仓库,不仅没必要,反而因为需要花费精力维护、或是因为囤积的内容过时,让这些库存变成了「负债」。当 AI 帮你把一段凌乱的语音转成结构清晰的笔记,或者帮你把三篇论文汇总成一个观点时,你必须进行一次「认知握手」—— 即利用你的直觉、经验和体感,对 AI 的逻辑链条进行最终签署(Sign-off)。我们像勤劳的仓管员一样,把萃取后的精华存入仓库,这时候库存是实打实的「资产」。
2025-11-20 20:25:58
940
原创 NotebookLM 重磅更新:Deep Research 好用吗?
点击进入后,导图默认是收起的,你可以根据偏好逐层展开。现在的 AI 就像一个能干的帮厨,前期的「洗菜、切菜」铺垫工作它都干好了,你这个「大厨」,只需要接过勺子,专注于最后的「掌勺」—— 也就是深度思考和创造性的工作。比如我问:「帮我把视频里提到的 1 万个智能体的社会实验完整叙述出来,要求生动,但是必须贴合原始文献,在关键点上引用原始文献的内容,并且注明其所在位置。这种机制非常有价值:它既避免了被 AI 的「幻觉」误导,又能保证你在需要查证时,能立即直达原文对应段落,从而大大提升了科研和学习的效率。
2025-11-19 17:43:57
846
原创 如何用 Youmind 和即梦 4.0 一键批量画 AI 手绘笔记?
在这个空间里,你看到的就是 AI 看到的,AI 理解的就是你关注的。充分利用上下文,可以让人和 AI 随时在这个区域中对齐:「我在说什么,AI 完全清楚,因为它也在看我现在能看到的上下文。正如赵赛坡先生在《AI 时代的断舍离:你的「稍后读」清单该扔了》一文中指出,我们正在从「图书馆模式」转向「炼金术模式」,核心工作是对原始信息进行「计算」,提炼出有价值的内容。这是一款最近很火的 Agentic AI (智能体 AI) 集成工具,它的 Slogan (口号) 是「更聪明的学习,更大胆的创造」。
2025-11-17 18:02:10
615
原创 为什么 AI 模仿了你的风格,却还是写不出人味?
很多人以为,区分人与 AI 写作的关键在于「文笔」、「流畅度」或者「情感色彩」这些「文风」层面的东西。这个阶段用的不是普通人的语料,而是一些开发者认为比较好的样例,让大模型来学习。之后 Youmind 还总结我的写作价值,包括:降低门槛,激发思考实践,建立长期信任关系,传递正确的技术价值观,培养读者的独立判断能力。那么我们是不是在用某个人多篇文章抽取总结风格,然后拿来一个资料,或者让 AI 检索到新资料,套用上该作者的风格,就像是这个作者写的了?我问的不是作家和 AI 的区别,我问的是人和 AI 的区别。
2025-11-12 16:33:27
466
原创 当常识被打破:数字时代田野研究的反思之旅
数据反映的,是训练数据的分布偏差,而不是真实社会的多元性。这揭示了一个深刻的真相:技术最终的社会角色,是由用户的真实需求塑造的,而不是由设计者的初衷决定的。我们总觉得社交媒体信息丰富、算法推荐能让人看到更广阔的世界,但闫蒲老师团队的研究发现,使用新闻聚合器和新闻类 App 的用户,在信息来源多元性上的得分显著更高。能否注意到 AI 的警示、能否意识到 AI 的局限性、能否在交互中保持批判和反思,这种「元认知」能力,是比写出华丽 Prompt 更核心的素养,也是未来人机协作中真正拉开差距的地方。
2025-11-07 10:05:08
729
原创 用 Claude Code 转换图文到 Quarto Markdown 幻灯,我收获了什么?
记得那是 2014 年学院青年教师教学基本功竞赛前一天晚上,我就是用 Markdown 把脑子里的思路梳理了一遍,然后敲了几行命令,一套包含图片、视频和动画效果的幻灯就流畅地跑起来了。从那以后,不管是平时给学生上课,还是做学术报告,甚至是在美国做文化讲座,Markdown -> reveal.js 都成了我的不二之选。它最大的魅力,就在于那个「纯文本」的核心 —— 所有的内容都是你可以随时搜索、编辑和整合的,还能和我用的 Roam Research 这样的大纲式第二大脑无缝衔接。看起来,这没有什么困难的。
2025-10-29 16:43:03
1041
原创 ChatGPT Atlas Agent 如何帮你采集数据和调研?
如果说刚才给你介绍和演示的浏览器内聊天功能,是让 AI 「看你所看」,那 Agent 功能则是让 AI 「做你所做」。在可扩展性上,要有想象力。但是我今天要给你介绍的,可能比这些看起来已经很好用的功能,对你更有价值。我询问的是近三年的论文,但我在《图书情报知识》2025 年第 4 期发表的《生成式 AI 搜索引擎人机结合的选题思路拓展研究》却未被计入。我首先发出一个一般的疑问,没开 Agent 模式,在 Atlas 浏览器里,我要求「找到天津师范大学管理学院王树义近三年发表的论文,及其全部影响力数据」。
2025-10-25 12:02:53
1744
原创 如何用 Agentic AI 产品帮你打造 Agentic AI 系统,自动处理复杂任务?
这时候,你自然而然的想法可能是:既然手上已经有 Claude Code 账户且付费,设计出来的 Agentic AI 项目又在 Claude Code 运行,那干脆就直接用 Claude Code 去「自我修复或迭代」Claude Code 项目,不是顺理成章吗?因为这个问题,证明了隆鑫同学确实是对 AI 熟悉了,有过经验、踩过坑,才能够一眼看出来这里的门道 —— 要纯人工手写这样复杂的提示词,是非常困难的。在以前,这样的工作,你需要先熟练掌握 CrewAI 或者 Agno 这样的框架,才能慢慢搭建。
2025-10-09 16:09:31
1053
原创 如何摆脱硬件束缚,随时随地享受「氛围编程」?
具体来说,我希望能在想看的时候,立即看到 Claude Code 或者 Codex CLI 等 Agentic AI 运行过程和结果,并与它实时交互;不想看的时候,它丝毫不来干扰我的注意力,却又能让它在远处继续执行,不至于因为我关掉设备而中断甚至浪费一个已经运行了很久的长任务。想想看,氛围编程,关键在于「氛围」啊。你给 Claude Code 的那些指令,就像你往游戏中输入操作,它会影响最终的结果。你想想看,某一次 Claude Code 运行的结果都可能特别让你出乎意料的惊喜,有的时候却可能以失败告终。
2025-09-28 15:54:13
369
原创 从氛围编程到端到端内容创作:我踩过的 AI 协同深坑与心得
诚然即便在快速变化的环境里,每个人也可能因为自己的积累都有引以为傲的「相对静态常量」—— 包括你建立的信誉、你的投资和储蓄,你的人脉圈……用户对内容的控制、AI 对任务的理解,以及全自动生成,这几者之间一定要达到一个拿捏的火候,以便平衡。但是站在用户的角度,我觉得这是非常理性的举动 —— 你的产品如果不能吸引我,那我立即就转投更好的产品。是模型选择的纠结,提示词设计的困惑,还是对未来变化的不安。一个真正优秀的模型往往能让你一看就有「于我心有戚戚焉」的感觉,而另外一些模型做出的东西,往往是让你摇头皱眉?
2025-09-21 11:47:03
797
原创 AI写作的透明革命:7个代理如何用“内心独白“在80分钟内协作完成一篇技术博客
在过去这一周,我在团队成员 Codex CLI 和 Claude Code 的配合下,鼓捣出来了这套新的 Agent 框架。更糟糕的是,当 AI 出错时,你根本不知道问题出在哪里,只能盲目地调整提示词,像在黑暗中摸索开关。AutoGPT 曾经让人兴奋,它承诺可以自主完成复杂任务,但实际使用中却经常陷入无限循环,或者产生大量无用的中间步骤,甚至可能在几分钟内烧掉你的 API 预算。但是正如我在视频中聊到的那样,我觉得它们距离我的需求,还有一些距离。看来,AI 写小说的能力,确实打动了不少读者。
2025-09-19 15:52:02
562
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅