- 博客(251)
- 资源 (6)
- 收藏
- 关注
原创 从张雪峰老师事件看中年老登如何安稳度过后半生
这种考了还不错的分但是没有选到与分数匹配的学校和专业的情况并不少,我老婆和我是同一个大学,她和我的情况也很类似,由于对高考报志愿选学校不懂,所以即使考了不错的分,但是也没有选到合适并且喜欢的大学。所以如果当时有张雪峰这样的老师能提供专业的咨询服务,让我们能了解更多的学校的信息,我们或许能上更好的大学,能更匹配自己的努力。我是父母的儿子,是妻子的丈夫,是孩子的爸爸,但我也是我自己。我可以辛苦的赚钱养家,但是我也是我自己,也有让自己快乐的事去做,也可以把一些时间和金钱消费在我自己的身上,为自己活一回。
2026-03-26 21:20:10
273
原创 AI那些趣事系列120:OpenClaw:从聊天到执行,AI 智能体的落地新范式
本篇主要学习OpenClaw 的定位、架构、使用经验、Demo 与实战,适合开发者、产品、运维与普通效率爱好者阅读。这是一篇OpenClaw的学习笔记,主要介绍OpenClaw 的定位、架构、使用经验、Demo 与实战,从而快速跟上智能体时代的技术浪潮,比较适合开发者、产品、运维与普通效率爱好者阅读。,遵循 MCP 协议,3000 + 现成技能,支持 JS/TS/Python 开发,一行命令安装即用。,统一对接 50+IM 渠道,负责权限、路由、会话管理,默认端口 18789,只对内开放,安全可控。
2026-03-24 20:50:15
362
原创 如果有三十万,你会去买一辆好车,还是买10个车位拿来收租?用《穷爸爸富爸爸》思维来处理这件小事
但是如果你拿这30W去买10个车位,每年可以收入3.6W车位租金,还能得到10个停车位的不动产,这可能是不错的优质资产,还能体验一把包租公(只不过是车位)的快乐。小区的车位从最开始的接近20W一个,一路下跌到现在尾盘车位差不过3W左右一个,车位价格一路狂跌,虽然尾盘车位基本剩的都是角落的位置,但是由于小区里各种特殊情况,如果拿来出租肯定是没问题的。(ps:需要注意的是:如果你是做生意的,买入一辆好车,可以让生意做的更好,赚更多的钱,这种情况不能简单属于消费。洗车 / 违章 / 过路费。
2026-03-23 20:30:29
331
原创 大A的贵州茅台到底还能不能关注和投资
但是在大A根本行不通,因为大A是牛短熊长的市场,买的久不一定赚,还可能亏,毕竟上证指数常年在3000点徘徊也不是开玩笑的。不要错过这一次危机,至少我认为当周期来临时,投资茅台可能是一次不错的赚钱的机会,肯定不会比腾讯的价值低。公司承诺 2024-2026 年分红率≥75%,按现在股价算,股息率约 3.6%,比 10 年期国债收益率(约 2.3%)还高,躺着拿分红,比存银行香多了。年初就打了全年 33% 的货款,手里货卖不动、周转慢(有的超过 150 天),只能恐慌性甩卖,越卖越跌,越跌越卖。
2026-03-09 22:00:32
493
原创 2025年终小结
人生最重要的是体验,是健康快乐的生活。降低无谓的消费陷阱,如果我能因为买一辆便宜的车节省了20万,那么我可以提前退休两年(假如我每年只需要10万就能生活),拥有这两年完整的时间去做自己真正快乐的事情,那真是太划算的一件事了。很多工作上的思考如果不及时整理成文章很容易忘记,通过写文章并发表在公众号上,可以及时将当时的思考和学习记录下来,后面随时能回看和总结,是我当前提升的很好的一个方法。2025年第一件比较大的事应该是换了一份工作,从工作了六年的绿厂换到现在L厂,原来卖手机的,现在变成卖电脑的了。
2026-02-14 18:08:37
539
原创 中年老登如何早点过上退休晒太阳打球的生活
2.多积累知识和见识,多看书,多学习,多观察身边的机遇,就有可能获得日常工作之外的机会,比如找到一个副业就能养活自己,那自然摆脱了日常上班工作之苦。我就可以完全拥有这四年,我可以去自由支配所有的时间,我可以去学习自己感兴趣的知识,看感兴趣的书,去晒太阳,也可以和朋友多打两场球。担心失业,但转过来一想,失业之后找不到工作,那正好提前退休也挺好的,那样就能早早过上退休晒太阳打球的生活(我现在最大的爱好就是在阳光明媚的日子里能晒晒太阳,长住成都的小伙伴肯定能理解这种体验)。当你早早退休,你可以更健康的生活。
2026-02-06 19:52:44
567
原创 AI那些趣事系列119:重复提示词竟然可以大幅提升大模型效果?!
同样的问题,换种问法,得到的答案可能天差地别。A. 空气中的氧气和氮气 B. 盐中的钠和氯 C. 水中的氢和氧 D. 氨气中的氮和氢 请用一个字母('A','B','C','D')以以下格式回复:答案是<ANSWER>。它从左到右地阅读和处理文本,每个词(token)在生成时,只能“看到”它前面的词,而无法“看到”它后面的词。A. 空气中的氧气和氮气 B. 盐中的钠和氯 C. 水中的氢和氧 D. 氨气中的氮和氢 请用一个字母('A','B','C','D')以以下格式回复:答案是<ANSWER>。
2026-02-03 20:59:54
574
原创 AI那些趣事系列118:学习智能问数开源项目SQLBot源码
主要流程包括:用户自然语言提问,上下文收集(元数据+术语+模板),Prompt 结构化构建(规则+示例+元数据),调用大模型生成 SQL,SQL 验证/执行(有效性校验),结果返回+数据训练(迭代优化)。作用:动态获取不同数据源(MySQL/PostgreSQL/SQL Server 等)的版本、表、字段信息,作为大模型生成 SQL 的「数据字典」。:获取指定表的字段名、数据类型、字段注释,是生成 SQL 字段选择的核心依据;作用:初始化大模型客户端,将构建好的 Prompt 传入大模型,生成 SQL。
2026-01-28 19:42:39
1261
原创 AI那些趣事系列117:从入门到实战:Claude Skills 彻底指南 —— 让 AI 像专业助手一样精准干活
大模型的上下文窗口是有限的(比如 Claude 3 Opus 是 200k Token),如果把所有脚本、文档都一次性加载,很快就会占满窗口,导致 AI「记不住」关键信息。那么,Skills到底是什么?它不像大模型那样需要高深的算法知识,也不像传统工具那样有陡峭的学习曲线,普通人只要懂基本的流程逻辑,就能开发自己的 Skill;Claude Skills 的本质,是把「隐性经验」变成「显性能力」—— 不管是你个人的工作流程,还是公司的业务规范,都能通过 Skill 封装成可复用的工具,让 AI 精准执行。
2026-01-22 20:56:10
1396
原创 <span class=“js_title_inner“>AI那些趣事系列117:从入门到实战:Claude Skills 彻底指南 —— 让 AI 像专业助手一样精准干活</span>
大模型的上下文窗口是有限的(比如 Claude 3 Opus 是 200k Token),如果把所有脚本、文档都一次性加载,很快就会占满窗口,导致 AI「记不住」关键信息。那么,Skills到底是什么?它不像大模型那样需要高深的算法知识,也不像传统工具那样有陡峭的学习曲线,普通人只要懂基本的流程逻辑,就能开发自己的 Skill;Claude Skills 的本质,是把「隐性经验」变成「显性能力」—— 不管是你个人的工作流程,还是公司的业务规范,都能通过 Skill 封装成可复用的工具,让 AI 精准执行。
2026-01-22 20:56:10
832
原创 <span class=“js_title_inner“>AI那些趣事系列117:从入门到实战:Claude Skills 彻底指南 —— 让 AI 像专业助手一样精准干活</span>
大模型的上下文窗口是有限的(比如 Claude 3 Opus 是 200k Token),如果把所有脚本、文档都一次性加载,很快就会占满窗口,导致 AI「记不住」关键信息。那么,Skills到底是什么?它不像大模型那样需要高深的算法知识,也不像传统工具那样有陡峭的学习曲线,普通人只要懂基本的流程逻辑,就能开发自己的 Skill;Claude Skills 的本质,是把「隐性经验」变成「显性能力」—— 不管是你个人的工作流程,还是公司的业务规范,都能通过 Skill 封装成可复用的工具,让 AI 精准执行。
2026-01-22 20:56:10
453
原创 AI那些趣事系列116:智能问数:让人人都能玩转数据的 AI 黑科技
你是否有过这样的经历?对于我们来说,不用再畏惧数据的复杂性,只需专注于业务需求,让数据成为决策的 “得力助手”。:机器从知识库中确认 “新用户注册量” 对应数据库中 “user_reg” 表的 “reg_count” 字段,“华北 / 华东 / 华南” 对应 “region” 字段的枚举值(1/2/3)。的出现,彻底打破了这个壁垒 —— 它就像一个 “懂业务的 AI 数据分析师”,能听懂你的自然语言提问,自动完成数据查询、分析,还能生成直观的图表,让非技术人员也能 “即问即得” 数据洞察。
2026-01-14 20:44:37
1334
原创 <span class=“js_title_inner“>AI那些趣事系列116:智能问数:让人人都能玩转数据的 AI 黑科技</span>
你是否有过这样的经历?对于我们来说,不用再畏惧数据的复杂性,只需专注于业务需求,让数据成为决策的 “得力助手”。:机器从知识库中确认 “新用户注册量” 对应数据库中 “user_reg” 表的 “reg_count” 字段,“华北 / 华东 / 华南” 对应 “region” 字段的枚举值(1/2/3)。的出现,彻底打破了这个壁垒 —— 它就像一个 “懂业务的 AI 数据分析师”,能听懂你的自然语言提问,自动完成数据查询、分析,还能生成直观的图表,让非技术人员也能 “即问即得” 数据洞察。
2026-01-14 20:44:37
842
原创 反复学习段永平投资问答录《投资的本质》
3.做对的事,把事情做对。不管是人还是公司或多或少都会犯错,但是如果明确了哪些事不能做,坚持不去做错事的人和公司能比一般的少犯很多错,当时间积累的足够长,就更容易成功一些。因为股票的价格会围绕价值剧烈的波动,选择优秀的公司(这是价值投资最重要的前提),在股票远低于自身价值的时候狠狠地买入(这样的机会可能很少,但是静静地等待,总会等到的),然后长期持有。出手去买一只股票,是基于对这家公司足够的学习调研,然后又耐心去等一个相对较低的股价,坚持到最好的时机来临,最后当机会真正来临的时候有勇气敢于下重注去买入。
2026-01-14 20:15:34
639
原创 AI那些趣事系列115:一文读懂 AI Agents 与 Agentic AI:从 “单兵作战” 到 “团队协作” 的智能进化
企业的 “供应链 Agentic AI 系统”,包含 “需求预测 Agent”“采购 Agent”“仓储 Agent”“物流 Agent”“库存预警 Agent”。没有 AI Agents 的单点突破,Agentic AI 就成了 “无米之炊”;“文献检索 Agent” 查找相关研究,“内容总结 Agent” 提炼核心观点,“逻辑梳理 Agent” 搭建论文框架,“格式排版 Agent” 按期刊要求调整格式,“查重修改 Agent” 优化重复率 —— 整个过程只需研究者提供研究主题,系统就能生成初稿。
2025-12-25 20:56:37
871
原创 <span class=“js_title_inner“>AI那些趣事系列115:一文读懂 AI Agents 与 Agentic AI:从 “单兵作战” 到 “团队协作” 的智能进化</span>
企业的 “供应链 Agentic AI 系统”,包含 “需求预测 Agent”“采购 Agent”“仓储 Agent”“物流 Agent”“库存预警 Agent”。没有 AI Agents 的单点突破,Agentic AI 就成了 “无米之炊”;“文献检索 Agent” 查找相关研究,“内容总结 Agent” 提炼核心观点,“逻辑梳理 Agent” 搭建论文框架,“格式排版 Agent” 按期刊要求调整格式,“查重修改 Agent” 优化重复率 —— 整个过程只需研究者提供研究主题,系统就能生成初稿。
2025-12-25 20:56:37
723
原创 AI那些趣事系列114:DeepSeekMath-V2 解锁 AI 数学推理新范式:让模型自己 “检查作业”
这恰恰戳中了传统 AI 数学推理的痛点:过去一年,大语言模型(LLM)在 AIME、HMMT 等侧重最终答案的竞赛中表现突飞猛进,甚至达到 “饱和” 水平,但它们就像那位 “跳步骤的学生”—— 可能靠错误逻辑蒙对答案,也无法应对定理证明这类需要严谨推导的任务。DeepSeekMath-V2 的突破,不是单纯提升 “解题能力”,而是构建了一套 “自我验证闭环”:让模型同时具备 “生成证明” 和 “验证证明” 的能力,就像一个学生既能做题,又能自己批改,还能根据批改结果反复修改,直到满意为止。
2025-12-17 20:55:31
887
原创 <span class=“js_title_inner“>AI那些趣事系列114:DeepSeekMath-V2 解锁 AI 数学推理新范式:让模型自己 “检查作业”</span>
这恰恰戳中了传统 AI 数学推理的痛点:过去一年,大语言模型(LLM)在 AIME、HMMT 等侧重最终答案的竞赛中表现突飞猛进,甚至达到 “饱和” 水平,但它们就像那位 “跳步骤的学生”—— 可能靠错误逻辑蒙对答案,也无法应对定理证明这类需要严谨推导的任务。DeepSeekMath-V2 的突破,不是单纯提升 “解题能力”,而是构建了一套 “自我验证闭环”:让模型同时具备 “生成证明” 和 “验证证明” 的能力,就像一个学生既能做题,又能自己批改,还能根据批改结果反复修改,直到满意为止。
2025-12-17 20:55:31
803
原创 AI那些趣事系列113:DeepSeek-OCR深度解读——用“光学压缩”给 LLM 长文本处理 “瘦身”,从原理到落地一篇吃透
比如一张 A4 纸的文档,包含 2000 字文本,转化为文本 Token 大概是 1000 个,但用视觉模型处理这张图片,只需要 256 个视觉 Token 就能捕捉全部信息 —— 这就是 “光学压缩” 的本质:把一维的长文本序列,转化为二维的图像,再通过视觉编码器压缩为少量 Token,最后解码回文本。这一步的作用就像 “显微镜观察细节”:SAM 用窗口注意力机制处理这些 patches,能精准捕捉文字的笔画、排版的间距等局部信息,而且窗口注意力的计算量可控,不会因为 patches 多就内存爆炸。
2025-12-12 20:35:18
931
原创 <span class=“js_title_inner“>AI那些趣事系列113:DeepSeek-OCR深度解读——用“光学压缩”给 LLM 长文本处理 “瘦身”,从原理到落地一篇吃透</span>
比如一张 A4 纸的文档,包含 2000 字文本,转化为文本 Token 大概是 1000 个,但用视觉模型处理这张图片,只需要 256 个视觉 Token 就能捕捉全部信息 —— 这就是 “光学压缩” 的本质:把一维的长文本序列,转化为二维的图像,再通过视觉编码器压缩为少量 Token,最后解码回文本。这一步的作用就像 “显微镜观察细节”:SAM 用窗口注意力机制处理这些 patches,能精准捕捉文字的笔画、排版的间距等局部信息,而且窗口注意力的计算量可控,不会因为 patches 多就内存爆炸。
2025-12-12 20:35:18
779
原创 AI那些趣事系列112:一文看懂 AI Agent 工具调用、MCP 协议与多 Agent 协同
AI Agent 不是 “只会聊天的机器人”,而是能帮你 “动手做事” 的数字助手 —— 比如自动订机票、规划旅行、算家庭预算,甚至协调多个工具完成复杂任务。就算出现“不小心先订了酒店”的情况(比如Agent误操作),A2A也支持“回滚指令”:主Agent通过A2A协议向住宿预订Agent发送“取消预订”请求,酒店Agent调用平台的取消API(比如携程的免费取消接口),避免用户损失——这要求专业Agent在设计时,支持“执行”和“撤销”两种反向操作(A2A协议会定义“撤销任务”的标准格式)。
2025-12-03 20:54:38
1022
原创 <span class=“js_title_inner“>AI那些趣事系列112:一文看懂 AI Agent 工具调用、MCP 协议与多 Agent 协同</span>
AI Agent 不是 “只会聊天的机器人”,而是能帮你 “动手做事” 的数字助手 —— 比如自动订机票、规划旅行、算家庭预算,甚至协调多个工具完成复杂任务。就算出现“不小心先订了酒店”的情况(比如Agent误操作),A2A也支持“回滚指令”:主Agent通过A2A协议向住宿预订Agent发送“取消预订”请求,酒店Agent调用平台的取消API(比如携程的免费取消接口),避免用户损失——这要求专业Agent在设计时,支持“执行”和“撤销”两种反向操作(A2A协议会定义“撤销任务”的标准格式)。
2025-12-03 20:54:38
767
原创 中国巴菲特段永平 2025 专访深度学习笔记:普通人能抄的投资心法,藏在 “买公司” 和 “慢生活” 里
段永平举了个例子:“我孩子小时候想学编程,我没反对,但我告诉孩子:‘编程很难,你可能会遇到很多挫折,如果你决定学,就要坚持下去,不能半途而废。而他的投资生涯,更是把 “懂行” 发挥到了极致:2001 年左右,网易因财务问题股价跌到 1 美元以下,濒临退市,段永平重仓买入,后来网易股价涨了几百倍,这一笔投资就让他赚得盆满钵满;段永平相信苹果会出手机大屏,是因为段总相信苹果是非常重视用户体验的,用户需要手机大屏幕,所以苹果肯定会出大屏,尽管公司可能有决策失误,扛了三年才出,但是最终会走回正道。
2025-12-01 20:46:48
1001
原创 <span class=“js_title_inner“>中国巴菲特段永平 2025 专访深度学习笔记:普通人能抄的投资心法,藏在 “买公司” 和 “慢生活” 里</span>
段永平举了个例子:“我孩子小时候想学编程,我没反对,但我告诉孩子:‘编程很难,你可能会遇到很多挫折,如果你决定学,就要坚持下去,不能半途而废。而他的投资生涯,更是把 “懂行” 发挥到了极致:2001 年左右,网易因财务问题股价跌到 1 美元以下,濒临退市,段永平重仓买入,后来网易股价涨了几百倍,这一笔投资就让他赚得盆满钵满;段永平相信苹果会出手机大屏,是因为段总相信苹果是非常重视用户体验的,用户需要手机大屏幕,所以苹果肯定会出大屏,尽管公司可能有决策失误,扛了三年才出,但是最终会走回正道。
2025-12-01 20:46:48
557
原创 AI那些趣事系列111:谷歌新范式Nested Learning:让AI告别“顺行性遗忘”,像人类一样日积月累地学习
比如先让HOPE学习“数学推理”,再让它学习“物理推理”,它能把数学推理中的逻辑方法,迁移到物理推理中,并且两个任务的准确率都能保持高水平;但谷歌的论文告诉我们:AI的进步,不仅仅是“量的积累”,更需要“质的飞跃”——从“拟合数据”到“积累知识”,从“静态系统”到“动态学习者”。再比如:一个大模型在预训练时学过“地球是圆的”,但如果在推理时你告诉它“最新研究发现地球是椭球体(更精准的表述)”,它能在当前对话中认可这个观点,但下次对话时,它还是会默认“地球是圆的”——新信息没有被“存下来”。
2025-11-27 20:52:30
667
原创 <span class=“js_title_inner“>AI那些趣事系列111:谷歌新范式Nested Learning:让AI告别“顺行性遗忘”,像人类一样日积月累地学习</span>
比如先让HOPE学习“数学推理”,再让它学习“物理推理”,它能把数学推理中的逻辑方法,迁移到物理推理中,并且两个任务的准确率都能保持高水平;但谷歌的论文告诉我们:AI的进步,不仅仅是“量的积累”,更需要“质的飞跃”——从“拟合数据”到“积累知识”,从“静态系统”到“动态学习者”。再比如:一个大模型在预训练时学过“地球是圆的”,但如果在推理时你告诉它“最新研究发现地球是椭球体(更精准的表述)”,它能在当前对话中认可这个观点,但下次对话时,它还是会默认“地球是圆的”——新信息没有被“存下来”。
2025-11-27 20:52:30
560
原创 AI那些趣事系列110:一文读懂 Qwen 系列模型:Qwen 系列核心算法优化技术学习笔记
模型里有 128 个独立的 “专家层”(比如 “数学专家”“代码专家”“多模态专家”),路由器会给每个 token 打分(比如 “数学题 token” 给 “数学专家” 打 90 分,“代码专家” 打 30 分),只激活分数最高的 2 个专家;处理 “周杰伦的歌” 时,不会误拆为 “周杰 / 伦的歌”。如果把 Qwen 系列比作一个 “学生”,它的成长轨迹堪称 “学霸进阶史”—— 从只会处理文本的 “初学者”,到能看懂图片、听懂语音的 “多面手”,再到如今会 “思考”、效率超高的 “顶尖选手”。
2025-11-18 20:47:12
1337
原创 黄金的“貔貅循环”:为何我们可能正站在一个历史性牛市的开端?
这篇文章把黄金涨价的底层逻辑扒得明明白白,没有复杂的 K 线图,没有晦涩的金融术语,却道破了一个关键趋势:美元信用褪色的时代,被冷落多年的 “旧神” 黄金,正在重新成为全球的 “信任锚”。选择数据月份:页面会列出最近 24 个月的国际储备资产数据,找到 “黄金储备(万盎司)” 这一栏(注意单位是 “万盎司”,1 万盎司≈3.11 吨,比如 2024 年 4 月的黄金储备是 7762 万盎司,换算后就是 7762×3.11≈2414 吨);最后想说:黄金不是 “发财捷径”,但它是资产的 “安全垫”。
2025-11-18 20:39:10
1008
原创 AI那些趣事系列109:LLaMA 系列模型核心算法优化技术学习笔记
通过这些技术突破,Meta 成功将大模型从 "实验室专属" 带入 "企业级应用" 和 "个人开发者" 领域,推动 AI 技术普惠。SwiGLU (x) = (x * σ(βx)) ⊗ W,其中 σ 为 Sigmoid 函数,β 为可学习参数,⊗为逐元素乘法。参数量提升 4 倍 (从 70B 到 280B),但推理计算量仅增加 30%,实现 "大参数容量 + 高效率推理" 平衡。网页文本 (60%)、书籍 (20%)、代码 (10%)、学术论文 (5%)、其他 (5%)
2025-11-13 21:08:00
1339
原创 AI那些趣事系列108:一文轻松读懂 LLaMA 系列模型:从 Meta 开源爆款到 AI 生态基石
让它分析一篇学术论文,它能提炼核心观点,甚至指出潜在漏洞。简单说,它是 Meta(原来的 Facebook)开发的一款 “通用语言 AI大模型”—— 就像一个天生会 “读” 会 “写” 的智能大脑,能理解文字意思,还能生成连贯的内容。2025 年 4 月,Meta 发布的 LLaMA 4 堪称 “革命性升级”—— 它不再局限于 “文本处理”,而是变成了能看、能听、能记千万字的 “全能助手”,还一口气推出三个版本(Scout、Maverick、Behemoth),覆盖从边缘设备到企业级的所有场景。
2025-11-13 20:51:30
1089
原创 再读《穷查理宝典》:深度理解准备、纪律、耐心、决心八字真言
芒格从不会 “小打小闹” 地买股票,但他下重注前,一定会做足准备:比如投资富国银行前,他研究了富国银行几十年的财报,了解了它的风控体系、管理层风格、市场定位,甚至去调研了富国银行的网点,确认它的客户粘性很强。时隔两年再翻开这本书,却发现那些曾被我忽略的 “准备、纪律、耐心、决心”,才是贯穿他所有决策的核心 —— 它们不是孤立的步骤,而是一套环环相扣的 “底层功夫”,不仅能用来选股票,更能帮我们把人生的 “投资” 做对。耐心的核心,是 “认准一个方向,熬到开花结果”,而不是 “不停换方向,永远在起点”。
2025-11-05 21:20:47
1131
原创 AI那些趣事系列107:大模型 Agent 陷入循环调用工具?从运维实战聊聊问题根源与破解之道
可以尝试在系统中添加一个简单的检测逻辑:如果 Agent 连续两次调用同一个工具,且工具返回的核心结果(比如告警组 ID、关键指标)完全一致,就判定为 “重复调用”,系统会阻止本次调用,并提示 Agent:“已获取相同结果,无需重复调用,请基于现有信息分析”。这是最简单也最有效的方法。这种“自主决策” 的特性,既是 Agent 的优势(灵活应对复杂场景),也埋下了 “循环调用” 的隐患 —— 如果大模型对 “何时停止调用工具” 的判断出现偏差,就可能像迷路的人反复绕圈一样,陷入无意义的工具调用循环。
2025-10-29 20:55:42
1511
转载 AI那些趣事系列106:大模型 Agent 的 “记忆瘦身术”:上下文压缩工程如何破解性能与成本困局?
当前遇到的问题是,生成折线图时,工具提示 “日期格式错误”,需要确认数据中的日期字段是否为 “YYYY-MM-DD” 格式。Agent 的上下文也是如此:任务过程中积累的历史对话、工具返回结果、中间计算步骤不断堆积,轻则导致大模型响应延迟,重则超出上下文窗口限制(比如 GPT-4 Turbo 的 128K 窗口,看似很大,处理多轮代码调试时仍会捉襟见肘),甚至推高 Token 消耗成本(按当前市场价,100 万 Token 成本约 1-5 美元,高频使用下是不小的开支)。
2025-09-23 20:56:31
1033
原创 AI那些趣事系列105:大模型 Agent 上下文工程实践分享
比如 “上次订的晚上去上海的二等座” 和 “帮我订和上次一样的票” 的向量相似度很高,调用器就能关联到上次的信息。从技术拆解来看,上下文工程的实现本质是 “信息的全生命周期管理”—— 从 “采集(源头)” 到 “处理(整理)”,再到 “存储(仓库)”,最后到 “调用(使用)”,每个环节都围绕 “让 Agent 更高效、更精准地利用信息” 展开。短期关联能力:比如用户说 “帮我订明天去上海的票”,后续补充 “要靠窗的”,Agent 能关联 “上海” 和 “靠窗”,不用再问 “去哪个城市”;
2025-09-18 20:51:09
1090
原创 AI那些趣事系列104:大模型 Agent:从 “一问一答” 到 “自主办事”,上下文工程是关键
未来,随着上下文工程的发展,Agent 会变得更 “聪明”:它能记住你的长期偏好(比如 “你喜欢喝美式咖啡,不加糖”),能处理更复杂的任务(比如 “帮你规划整个职业生涯”),甚至能和其他 Agent 协作(比如 “订票 Agent 和酒店 Agent 协作,完成你的旅行安排”)。大模型的 “上下文窗口” 是有限的 —— 比如 GPT-4 的上下文窗口是 128k tokens(大概相当于 10 万字),虽然看起来很多,但如果处理长任务(比如写一本 200 页的书、整理一年的聊天记录),很快就会 “装满”。
2025-09-17 19:27:50
1355
原创 AI那些趣事系列103:当AI开始“胡言乱语”---揭秘大模型幻觉的根源与破局之道
大模型在面对不确定问题时会选择“合理编造”而非说“不知道”,本质是评估体系在鼓励模型猜测,就像考试中“答对得1分,空题或者答错得0分,但是蒙题会有有概率答对从而得分”的规则,催生了学生的冒险行为。:模型的“胡言乱语”也分很多种,有的是低级的拼写错误(现已很少),有的是逻辑推理的失误(如计数错误),有的则是严重的事实虚构(如编造生日)。一个最简单的判断原则是:蓝色的柱子越贴近那条黑色的对角线,说明这个模型越“靠谱”,它知道自己知道什么,也不知道自己不知道什么。越靠近1(100%),表示它越“自信满满”。
2025-09-10 19:53:16
1241
1
转载 三读《穷查理宝典》感悟
当跌过头的时候就是非常好的买点,如果能严格遵守纪律,碰到优质的股票到合适的买点就大胆狠狠地下注,应该会收不错的投资收益的。10.市场不总是有效的,尤其是大A,经常会出现标错赔率的赌注,比如10块多的小米和不到200的腾讯。如果选到优秀的股票,在高价的时候也并不会那么吸引人。还是小米和腾讯的例子,去年行情极差的时候当遇到200的腾讯,虽然我也只知道这是个很好的机会,但是还是被大环境影响了,觉得还会跌。5.借助大模型的力量,我们可以更高效的学习多元思维模型,去学习重点学科的重点知识,并应用在生活和投资中。
2025-06-26 16:18:26
878
原创 广告行业中那些趣事系列102:DeepSeek核心技术之多头潜在注意力MLA详解
这一技术帮助该公司在有限的 GPU 资源(如2048块英伟达H800)和极短训练周期(约两个月)内完成了超大规模模型的训练,其训练成本仅为同类模型的3%-5%。显存利用率提升 3 倍以上:处理 32 路并发请求时,传统方法需要预留 32×2048 token 的连续显存,而分页机制通过块复用,实际占用仅为传统方法的 30%。就像类似操作系统的内存分页(4KB 页),将逻辑上的连续 KV 缓存映射到物理上离散的显存块。处理长文本时,块表可能指向 100 个离散的块,但这些块在显存中无需连续。
2025-04-21 16:07:50
1307
原创 广告行业中那些趣事系列101:基于DeepSeek R1构建本地广告知识库实践
比如“DeepSeek(杭州深度求索人工智能基础技术研究有限公司)是一家专注于通用人工智能(AGI:Artificial General Intelligence)和大语言模型(LLM:Large Language Model)研发的创新型科技公司,成立于2023年7月。Ollama是一款开源跨平台工具,主要用于在本地设备上快速部署和管理大语言模型(如 DeepSeek-R1、Llama 2 等),支持智能对话、文本生成等功能。文本分割的粒度需要注意以下几点:需要对切割的粒度需要进行反复探索。
2025-04-21 15:46:36
1505
原创 广告行业中那些趣事系列100:手把手零代码基于DeepSeek+飞书多维表格实现数据标注任务
我们要做的就是准备好需要标注的文本数据,然后进行简单配置就可以利用飞书的多维表格和DeepSeek R1牛逼的推理能力帮我们标注,真正大幅降低标注人力成本。这时候可以通过智能标签进行规整,继续点击+号,选择字段捷径中心下的智能标签,然后添加固定的两个标签“喜欢”和“不喜欢”,配置里的字段选择“DeepSeek R1.输出结果”,最后点击确定即可。比如我们希望对文本这一列的数据进行情感分类任务,可以这么写:“我是一个数据标注人员,想对这里的文本数据进行情感分类,请根据文本输出喜欢或者不喜欢”。
2025-04-21 15:38:29
1169
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅