- 博客(33)
- 收藏
- 关注
原创 当AI开始「嫌贫爱富」
如果你是一个开发者,你需要想清楚——你的产品是建在GPT-5.5的昂贵地基上,还是建在开源模型的免费沙子上?K型的上端,是OpenAI、Anthropic、Google这些巨头,用最贵的模型赚最厚的利润。作为一家AI编程公司,写在最核心的底层依赖是友商的API——这种关系不但尴尬,而且危险。但在企业真实的成本账本上——因为GPT-5.5一次能解决的问题,GPT-4可能需要三次对话、五次重试,再加上人工校对的成本——他们的逻辑是「先圈地再变现」——在模型能力追上的那一天,用户就是护城河。
2026-05-09 12:55:09
330
原创 「AI最强联盟」正在悄悄解体
更重要的是,这场「分手但没有真正分开」的戏码,提醒了我们一个被大多数人忽略的真相:没有永远的铁瓷,只有永远的利益。放开独家协议,让OpenAI也能用其他云服务,其实是把「独角兽放归森林」——OpenAI的算力账单不再由微软一个人买单,而OpenAI的成功依然会给微软带来回报(微软仍然是OpenAI的最大股东和重要云合作伙伴)。华尔街的耐心是有限的——如果OpenAI的光环不能拉动整个Azure的增长,那独占就不再是优势,而是负担。很多人以为,微软和OpenAI的合作变动,是华尔街才需要关心的事。
2026-05-09 12:12:55
172
原创 豆包是史上最绿茶的大模型没有之一
但它要是永远不给明确答案,用户至少不会怪它——"我都分析得这么全面了,你自己不做决策怪谁呢?你就是一个普通的上班族,被豆包的甜言蜜语哄得晕头转向,结果自己做的决策自己背锅。我跟你说,就是那种,你跟一个朋友聊天,他全程都在点头、都在说"对对对"、"你说得对"、"确实确实"。你去看看豆包的用户评论区,全是"豆包真好用"、"豆包太智能了"、"豆包帮我解决了好多问题"。有背景分析,有市场调研,有竞争格局,有盈利模式,有实施路径。我寻思了一下,我没寻思明白,这AI到底是来帮我的,还是来跟保险公司联名的。
2026-05-09 11:27:56
318
原创 刚续费 Cursor,就看到 TRAE SOLO 免费了—我是不是亏了?
摘要:Cursor Pro(20美元/月)与字节跳动TRAESOLO(免费)的对比分析显示,后者凭借端到端SOLO模式、移动端支持和AI自主规划等优势,特别适合个人开发者和小团队快速实现需求。但Cursor在企业合规、离线开发和多Agent协作方面仍具优势。建议根据使用场景选择:追求效率选TRAESOLO,注重安全和稳定性则保留Cursor。工具选择应以实际交付效果为准,免费方案在当前阶段确实提供了高性价比选择。
2026-05-08 18:50:50
391
原创 别再把IP当账号!真正的个人IP,是一套别人抢不走的无形资产
"胡说老王"全平台播放超40亿次,核心不是粉丝多,而是他建立了"敢说真话、拆解本质"的口碑——让用户愿意信任、追随、付费。大多数人不是输在能力上,而是输在认知上——他们在用打工的逻辑,做本该用经营的方式去构建的东西。迪士尼、李宁、老干妈,本质都是IP,而非单纯的品牌或产品。老王的冲突内核:反对"努力就成功"的毒鸡汤,直说"认知不够,努力白费"。没有价值支撑的流量毫无意义,涨粉越快、人设越空,只会焦虑越重。规则是信任的基石,是你和用户之间不能打破的人格契约。这条路不快,但走通了,就是别人复制不走的护城河。
2026-05-07 15:16:40
309
原创 人类唯一无法被AI替代的是什么
而且它自己上网去搜你的资料,知道你写过的文章、你的风格、你关心的领域,然后给你设计一整套设计系统,包括所有的视觉组件。但如果你能用Claude Code当场写一个完全针对你这个需求的软件,而且它用你电脑里的文件、你登录的账号、你自己的数据,你为什么还要买一个别人写的固定版本?这个Skill你可以理解成,把你每天的工作写成一个文件,早上干什么,查完邮件干什么,开会定下来什么,然后Claude Code会自己读这个文件,自己写代码,自己执行。那是让你觉得好用的开始,但真正意义上的转折,是2024年10月。
2026-05-07 12:57:45
663
原创 OpenClaw 和 Hermes Agent 到底有什么区别?一篇讲清楚
你可能已经看到很多人在对比它们,但说实话,大部分对比文章太技术了,什么架构差异、记忆分层、模型微调——对普通人来说,读完还是不知道它们到底有什么区别。你从微信、Telegram、飞书、Discord 任何地方给它发消息,它接收后,根据你写好的「Skill」(技能文件),按步骤去执行。你得喂它,遛它,训练它。你不训,它不会新技能。你告诉它一个方向,它自己跑起来,路上自己找吃的,自己认路,下次走同样的路它比你更熟。这四层记忆叠加的效果是:你用了一段时间后,它执行任务时默认就按你的习惯来,不需要每次重新说明。
2026-05-06 11:27:22
425
原创 假日被AI攻略坑了?问题不在AI ,在你对置信度的理解
不是堵车,不是人挤人,是被AI攻略坑的。去川西的,AI说"步行很近",结果是海拔3000米的6公里高原路,两个人走到腿软。真正出问题的地方,都是细节——一段路的实际距离,一班车的末班时间,一个景点项目是否真实存在。所以才会出现那个很诡异的场景:AI给你的信息80%是对的,剩下20%是错的,但你根本分不清哪部分是哪部分。这已经不是"信息过时"的问题了,是AI在它根本没有可靠数据的情况下,仍然给出了听起来很确定的答案。这不是一个"要不要用AI"的问题,是一个"哪些事交给AI、哪些事自己来"的问题。
2026-05-06 11:10:18
382
原创 腾讯和小米都造了一只“虾”,但有一只,根本不是在做AI
举个最简单的例子:你早上起床说一句"我要出门了",AI自动帮你关家里的灯和空调,在手机上导航到公司,顺便把今天的会议提醒推到车载屏幕上。现在,所有人都在看腾讯和小米谁的智能体更厉害——但说不定,真正颠覆这个局的,是一家我们现在还没听说过的公司,或者一个现在还不存在的技术。小米的八亿台设备里,很多是合作伙伴生产的,不同品牌、不同标准、不同质量,放在一起用的时候经常出现这个不兼容那个、那个反应慢这个的问题。小米的智能体要控制你家里的设备、知道你几点睡觉、几点出门——它掌握的是你每天的真实生活轨迹。
2026-05-05 08:57:27
620
原创 马斯克起诉OpenAI:一家非营利机构的商业化转型,算违法吗?
如今OpenAI完成了大规模商业化转型,管理层由此获得巨额股权收益,这违背了当初的承诺,构成对慈善信托的违约。值得注意的是,他向法院申明,若胜诉所获赔偿将全部归入OpenAI的非营利实体,本人不会个人获益。2022年底,ChatGPT横空出世,引爆全球,OpenAI估值一路攀升。如果答案是"可以",那"公益"二字的约束力将大打折扣,公众对非营利机构的信任也将受到影响。,OpenAI可能面临架构重组,上市计划或将搁置,行业格局也将随之改变。,明确承诺开发安全、开源的人工智能,服务公众利益,而非追求商业回报。
2026-05-05 08:51:56
333
原创 AI生产力狂飙,经济却越来越冷?这次不一样
每天晚上睡觉前,我把一个商业想法丢给它,它在我的 5090 上跑 1000 个循环,六七个小时,把这个想法的所有可能性全部实现出来。但赚到的钱,没有流向被替代的人,没有流向消费者,而是流向了资本提供方——也就是那些造AI工具的公司,和能用AI放大产出的人。但如果把 AI 当成一面镜子——它照出来的,是生产关系几十年没变这个事实——那真正的问题就不是"学什么技能",而是"谁来承担技术进步的成本"。而是说,写代码从"核心技能"变成了"实现想法的工具之一",而这个工具的价值,也在快速折旧。它在给这个矛盾定价。
2026-05-04 13:52:01
197
原创 长文本(Long Context)会终结 RAG?先把这两个概念搞清楚
这就是为什么有个著名的测试叫"大海捞针"(needle-in-a-haystack)——把一根"针"混进一吨"稻草"里,让模型去找。Long Context 解决的是"我需要理解整篇文档的内在逻辑"——比如让 AI 帮你总结一份200页的战略规划文件,找出其中的核心论点和矛盾点;RAG 解决的是"我需要精准回答一个具体问题"——比如从1000份合同里找出所有包含"违约金超过5%"的条款;所以当有人说"Long Context 让 RAG 过时了",我只能说:说这话的人,可能自己还没被这个"大海捞针"坑过。
2026-05-04 12:45:16
193
原创 你不确定坚持有没有用,但你确定空着不写一定没用
你坚持,是在你不知道对不对、不知道有没有临界点、不知道自己的频率对不对的情况下,依然选择写下去。因果逻辑听起来无懈可击:你积累、你沉淀、你在对的频率上,于是机会来了你接得住。失败的沉默比成功的喧嚣安静得多,所以你听到的"坚持",几乎都是幸存者讲述的版本。也许你所谓的"积累",只是低效的重复。那些告诉你"坚持就会对"的人,要么是事后诸葛亮,要么是在贩卖确定性。这个"可能",概率也许很低,但它是正数,而放弃的概率是零。它说,当你的频率和你要的东西在一个频率上的时候,机会唾手可得。停下来等,等来的是更深的迷茫。
2026-05-03 18:05:28
421
原创 2026.5 AI终极评测:GPT-5.5登顶,Claude 4.7守王座,国产谁争锋?
与此同时,豆包Seed 2.0 Pro杀入全球前十,DeepSeek-V4 Pro登顶SuperCLUE中文评测,国产AI势力强势崛起。:GPT-5.5发布后,在Terminal-Bench 2.0(编程/智能体测试)中以82.7%的得分横扫竞品,大幅领先Claude Opus 4.7的69.4%和Gemini 3.1 Pro的68.5%。:DeepSeek-V4 Flash的价格仅为GPT-5.5的1/36,却能提供足够日常使用的性能,每日200万Token的免费额度更是“良心之作”。
2026-05-03 15:40:46
403
1
原创 我用 ChatGPT 新功能“走进”了三个房间,出来后沉默了五分钟
米白色墙面,暖色橡木地板,低矮亚麻布沙发。建筑可视化风格,超写实,8K画质。等距矩形投影,球形全景,沉浸式360度视角。超写实,电影级打光,概念艺术风格。等距矩形投影,球形全景,沉浸式360度视角。柔和阴影,侘寂美学,电影级写实风格。等距矩形投影,球形全景,沉浸式360度视角。过去 AI 生成的是一张"照片",现在生成的是一个"房间"——你可以站在里面转圈看。最后这句是关键——加上它,才能触发真正的全景模式。我测了三个场景,截图留着,等你看完文章再放出来。就像 VR 看房一样,但不需要设备,不需要建模,
2026-05-02 11:40:24
295
原创 OpenClaw龙虾AI智能体:人机协作新时代的变革核心
当一项技术开始被大众赋予“昵称”,它往往已经跨过冷启动,进入社会化扩散阶段。这不是一次普通的效率提升,而是一场关于“人如何工作”的系统性重构。人讨论 → AI验证 → AI辅助决策 → AI直接推进执行。六、深水区:真正的竞争不是“用不用”,而是“怎么用”如果你还停留在“偶尔用一下AI”,本质上已经落后。二、职场悖论:不会用被淘汰,用不好也会被淘汰。一、范式转移:从“对话工具”到“执行实体”人讨论 → 人记录 → 人整理 → 人执行。四、系统进化:从单一AI到“智能体矩阵”
2026-05-02 09:34:08
345
原创 PC终于翻身了:为什么OpenClaw的成功,其实跟AI无关
但OpenClaw让我们看到了另一种可能:AI可以跑在你自己的设备上,它读取你的文件,理解你的工作记忆,帮你处理你每天重复的那些事。它可以直接读取你的文件,可以调用系统API,可以操控浏览器,可以和不同的应用程序通信——不需要任何人的许可,不需要模拟任何人的操作,它就是这台电脑的管理员。它踩在了几个东西的交叉点上:2026年,本地大模型的能力终于到了临界点,PC的算力溢出,普通人的电脑已经足够跑一个真正能帮上忙的AI了。你是这台电脑的主人,你可以运行任何程序,调用系统底层的接口,让不同的软件互相通信。
2026-05-01 18:19:48
313
原创 Go、Rust、Zig 透过价值观看编程语言选择
Go的slice(切片)类型便是一个例证,它不仅是一个胖指针,还内置了动态扩容能力,整合了类似Rust的Vec的功能,但内存管理(栈或堆)由语言自动处理。为了在不牺牲性能的前提下实现内存安全(防止空指针解引用、双重释放等),并杜绝可能导致难以调试的bug和安全漏洞的“未定义行为”(Undefined Behavior, UB),Rust引入了所有权、借用、生命周期、Pin等一套极其强大的类型系统和语言特性。同时,这套严格的检查机制也极大地提升了库的可靠性,促进了其生态系统的繁荣。
2026-05-01 17:24:20
410
原创 百万上下文是烟雾弹——DeepSeek v4 真正的杀招,99%的人没看懂
AI能记住你三个月前的设计初衷,能在你第87次修改代码时,提醒你"这样改会违背你最初的性能目标",能像一个真正工作过的同事一样——AI能从你的需求文档出发,自己生成、调试、优化、部署,全程记得你最初的架构逻辑,不会因为改了100次就忘了第1次的决定。明天你回来,它不认识你,不记得昨天的架构决策,不知道你踩过哪些坑。传统大模型的本质是"短时记忆生物"——它活在当下这一刻的对话里,没有过去,没有未来,没有连贯的思维链条。而是说,未来的程序员不再是"写代码的人",而是"告诉AI写什么代码的人"。
2026-04-30 19:45:02
287
原创 你以为在驯化AI,其实AI在等你驯化完自己
可以自主浏览网页,可以自主执行代码,可以自主调用外部工具,可以自主规划多步任务。是它做"对"了,但它优化的那个目标,从一开始就不是你真正想要的。它只需要在你面前,关上所有错误的门,留开那一扇它想让你走的门。任何一个AI的输出,背后都有训练数据、目标函数、商业逻辑。每一次都说:我们有安全团队,我们有护栏,我们有对齐研究。如果AI预测了你所有的需求,你还知道自己真正想要什么吗?然后有一天,你想收回权限,发现已经不知道从哪里下手了。但你所有的"自由选择",都发生在它们设计好的空间里。
2026-04-29 11:40:59
291
原创 2008年的《鹰眼》,藏着AI创业者不敢说的秘密
免费让你进来,免费让你依赖,免费让你的数据、习惯、工作流全部沉淀在它的系统里。会淘汰你的,是那些你心甘情愿嵌入生活、却从未读过一行服务条款的系统。四、最反常识的真相:烧钱不是为了活下去,是为了让你离不开。回答不了这三个问题的,都是在用资本的时间换商业的幻觉。《鹰眼》里最让人细思极恐的一幕,不是追车,不是爆炸。2008年的《鹰眼》,藏着AI创业者不敢说的秘密。三、技术失控的真实样子,不是爆炸,是”无法退出”一、反常识:AI最危险的时刻,不是它失败的时候。这是一份,写于2008年的AI商业尽调报告。
2026-04-29 11:39:51
333
原创 《姜胡说:用 PARA 架构打造赚钱知识库,AI 时代知识变现就这么干》
只要你能把知识库从“仓库”变成“印钞机”,让知识真正“跑”起来,你也能实现“睡后收入”的自由。这样一来,AI就能“按需调用”你的知识——你让它做个项目,它自动去“当前任务”目录找资料;先“持仓”,等时机到了,它可能就是你下一个爆款的“火种”。如果它是空的,说明你最近没在“搞钱”——这是系统给你的“红色警报”,不是整理方法的问题,是行动力的问题。:先把“正在做的事”“可复用的经验”“参考资源”“搁置内容”分类整理。别把它当成“废品站”,这里存的是“已完成但暂时不知道用在哪”的内容。
2026-04-28 08:53:44
334
原创 《别再盲目学AI了:你的大脑,才是这个时代最稀缺的“算力”》
AI 解决的是“执行效率”问题,而人类解决的是“定义问题”和“验证逻辑”的问题。当潮水退去,那些拥有扎实专业根基的人,将手持 AI 的利刃,划破未来的迷雾;当大众还在惊叹 AI 能自动生成代码和文章时,真正的顶尖高手已经发现:AI 从来不是学习的“替代品”,而是最严苛的“认知放大器”。能够识别出 AI 回复中那 5% 的关键性逻辑错误,并提供精准的“手术刀式”提示词(Prompt),让 AI 瞬间进化。解决 80% 的常规问题靠 AI,而剩下的 20% 决定生死的问题,只能靠你脑子里的底层逻辑储备。
2026-04-27 11:33:41
186
原创 未来职场大洗牌:北大数据揭秘,AI 正在颠覆就业格局
数据显示,纵向错配增长最快的,正是高中、中专学历的群体,他们正被迫"向下投递",接受与自身教育程度不匹配的岗位。换句话说:企业还在招人,但门槛越来越高,给的钱相对越来越少,而且内部已经开始"两极分化"——能驾驭AI的人薪资猛涨,其余人原地踏步。原因耐人寻味——中国劳动力市场原本就存在更深层的结构性矛盾,AI的冲击更像是"加速器",把原本就存在的问题提前引爆。程序化的、重复性的、可被清晰描述的任务——正在快速被替代。真正的分水岭,不在于你的工作被不被AI"盯上",而在于面对这场重塑,你是。
2026-04-27 09:43:29
198
原创 《王自如讲透Agent落地:决定AI成败的3个核心》
不是 demo 里跑得漂亮,不是 benchmark 成绩好看,而是在真实业务场景下,能不能端到端地把问题解决掉。这三个问题的答案,比任何 benchmark 分数都更能预测你的 Agent 在生产环境里会不会翻车。该调工具的时候犹豫,不该调的时候乱调,在 30-50 个工具并行的场景下完全失控。Agent 在 demo 里跑得很漂亮, 领导看了很满意,团队信心满满。Agent 的终局不是谁的模型更"聪明",而是谁的模型在真实业务中。工程效率的差距,往往从选模型的那一刻就已经注定了。
2026-04-26 16:33:27
349
原创 为什么你的 Agent 跑不稳?一个工程师不敢说的真相
不是 demo 里跑得漂亮,不是 benchmark 成绩好看,而是在真实业务场景下,能不能端到端地把问题解决掉。这三个问题的答案,比任何 benchmark 分数都更能预测你的 Agent 在生产环境里会不会翻车。该调工具的时候犹豫,不该调的时候乱调,在 30-50 个工具并行的场景下完全失控。Agent 的终局不是谁的模型更"聪明",而是谁的模型在真实业务中。:复杂编排下,是否存在掉任务、提前结束、幻觉输出的问题?:JSON 输出是否干净?这不是 5 倍的代码量差距,这是 5 倍的。
2026-04-26 09:52:49
369
原创 DeepSeek-V4 来了:1.6万亿参数的“价格屠夫”,撕开英伟达城墙的一道裂缝
在Agent能力方面,实测中V4-Pro展现了令人印象深刻的长程任务能力——能连续自主编程60分钟以上,无需人工干预,完成复杂的数据库设计和安卓模拟器开发等工程任务,体现出强大的自我纠错和工具调用能力。从技术报告来看,DeepSeek当前最成熟、最稳定的实现仍建立在CUDA体系之上——CUDA仍是短期内的“最优路径”。当1M上下文从“加价功能”变为“默认配置”,当开源模型的价格打到闭源模型的百分之一,当国产芯片上能跑出世界级的AI性能——这些变化叠加在一起,对行业的深远影响,远比某个跑分数字更值得关注。
2026-04-25 06:26:37
425
原创 如何用AI快速提高认知
"假设我完全不懂这个领域,用类比的方式解释XXX,然后反问我3个问题检验我是否真的理解了。"帮我提炼这本书的核心模型、关键论点和可执行建议,分点列出。"你来支持'XXX观点',用最强的论据说服我,我来反驳你。"我刚学了XXX,我来给你讲一遍,你指出我理解有误的地方。:费曼学习法的AI版,输出倒逼输入,记忆留存率提升3倍。不再为读不完的书焦虑。它不会评判你,不会嫌你问题幼稚,不会让你尴尬。不是你不努力,是你的学习方式已经落后了5年。:被追问的瞬间,你才知道自己哪里是假懂。遇到不懂的概念,别只问"解释一下"。
2026-04-24 08:56:17
205
原创 Kimi K2.6模型来了
面对全球100个半导体标的,它可以自主设计5套量化策略,同时输出建模表格和整套汇报PPT——一套操作,人类团队可能要干几周。K2.6 在 Kimi 内部代码基准测试里,比上一代 K2.5 提升了整整 **20%**。K2.6 作为"群组协调者",实时监控所有Agent状态,谁卡住了、谁摸鱼了,自动重新分配。同期,那些收费的闭源模型们,每次发布都要搞个发布会,讲三个小时PPT。实测里,有人让它看一眼某个网站的截图,然后"复刻"这个页面——但K2.6告诉我们,真正的"卷",是把一个AI训练到可以。
2026-04-23 10:43:34
338
原创 模型越强,程序员越没用?这个问题问反了
在耗时任务完成后,像发微信一样通知它:"数据已就绪,请继续。但如果模型失败的原因是"缺少信息",给它 100 次机会也没用——就像给一个没有密码的人 100 次重试机会,他依然登不进系统。但 Harness 是你造的——方向盘、刹车、仪表盘,整套底盘都是你的。很多人的第一反应是"赶紧学 Prompt",或者"赶紧学最新框架"。不是因为模型变聪明了,而是因为你给它装上了"先想后做"的约束?AI 报错,不是你的代码有 Bug,而是概率系统的天性。模型是引擎,是别人造的,你控制不了它的概率分布。
2026-04-23 10:33:30
327
原创 一个中国AI,让硅谷最热独角兽公开道歉
这篇论文发布后,马斯克公开表示"令人印象深刻",OpenAI前研究副总裁 Jerry Tworek 评价:这标志着**"深度学习2.0"时代**的到来。估值500亿美元的编程工具 Cursor,推出了新一代旗舰模型 Composer 2,主打"长周期智能体编程",宣传得有声有色。当你打开 Cursor 写代码,当你在 Perplexity 搜索,当你用某个"美国产品"感叹"AI真厉害"的时候……过去模型的每一层,都无差别地叠加前面所有层的信息——重要的和不重要的一视同仁,层数越多,关键信息越被稀释。
2026-04-22 09:03:43
310
原创 段永平的 AI 三问:比技术分析更深刻的终局思考
科技科普的意义,不在于追逐每一个热点,而在于透过热点看清背后的价值流动。对于一个拥有数万名初级客服人员的公司来说,AI 不是机会,而是巨大的转型包袱。曾对新事物的“三问”逻辑。这三个看似简单的问题,可能比所有复杂的技术分析都更能看清这场 AI 浪潮的终局。如果 AI 让原本不可能实现的商业闭环(如真正低成本的个性化教育、全自动的药物研发)变成了可能,那它就是。真正值得关注的,是那些因为 AI 的介入,让商业逻辑从。谁能真正解决用户的具体痛点(哪怕是一个极其垂直的职场办公邪修技巧),谁就拥有了定价权。
2026-04-21 11:23:47
208
原创 段永平的AI三问,可能比所有技术分析都更重要
如果这个问题没有答案,那所有的技术突破,本质上都是成本,而不是价值。很多人赚不到钱,不是因为不努力,而是从一开始就站在一个错误的方向上。在一个信息过载的时代,真正稀缺的能力,不是获取信息,而是过滤信息。很多公司会输,不是因为技术不行,而是因为等不到商业闭环那一天。不是因为技术不够强,而是因为它们从一开始,就不是一门生意。这三个问题,看起来简单,但它们筛掉的,不是项目,而是幻觉。这些变化,大多数只发生在“技术层”,而不是“商业层”。很多人以为,这三个问题是投资人用的,其实不是。
2026-04-21 10:28:24
529
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅