- 博客(80)
- 收藏
- 关注
原创 别再说AI懂你了!先搞清楚AI中的Context到底是什么(下篇)
反过来,你如果把context想清楚、给充分——告诉AI你的身份、任务背景、想要什么风格、有什么约束——它的表现会好得让你惊讶。你问“我们公司2024年Q3的营收是多少”,它去查你上传的财报PDF,给出精确数字,而不是“大概是XX亿”。这个32°C被塞进context里,AI再回答:“是的,今天上海32°C,比较热。问“怎么学英语”,一个说“我是商务人士”,一个说“我要考雅思”,AI给的方案完全不同。它是决定“我需要查天气”,然后调用一个天气API,把API返回的结果拿回来,再结合原来的对话生成回答。
2026-04-06 00:56:21
163
原创 别再说AI懂你了!先搞清楚AI中的Context到底是什么(上篇)
同样的“帮我推荐一部电影”,你知道是给小孩看,还是给老人看,是在晚上放松看,还是周末全家一起看。没有context,同一轮对话里,AI前面说“你好,我是你的助手”,后面可能说“我没有名字”。最后一个问题里的“这几个地方”,就需要AI回头去看第一条消息里的“东京、大阪、京都”。“这个”“那个”“它”“他”——人类日常对话里满是指代词。反过来,如果你们一直在聊“上周说的那个项目”,你一说“那件事”,朋友秒懂。或者你让AI写一篇关于“苹果”的文章,它给你写了一整页水果种植技术,而你想说的是苹果公司。
2026-04-06 00:54:16
143
原创 下篇:tool的四大门派,以及它到底帮AI干了什么
以前你说“帮我整理这个文件夹,把大于10MB的文件移到archive子目录里”,没tool的AI会给你一行find . -size +10M -exec mv {} archive/,然后说“请你在终端运行这行命令”。有tool的AI会直接调文件系统tool和命令行tool,自己把事办了,完事后告诉你“搞定,移动了7个文件”。单个tool不稀奇,稀奇的是AI能组合使用多个tool。比如这个任务:“查一下明天上海到北京的机票,挑最便宜的一班,把航班信息发到我邮箱,再在我日历上建个提醒,提前两小时通知我。
2026-04-05 12:14:23
295
原创 上篇:没有tool的AI,就是个“嘴强王者”
它可能给你一个接近但不对的数字——因为它是靠预测下一个词来生成答案的,不是真的在“计算”。更别提你让它“把我桌面上的报销单Excel里第三行的金额改成5000”——它只能给你一段Python代码,让你自己去复制粘贴运行。那就给它文件系统tool、Git tool、Slack tool——每个tool就是一根“手指”,伸出去干活。你上回问MCP的时候我说过,MCP是“通用插头标准”。跟跟一个实习生说话似的——你说“去把那个文件拿来”,他回你“好的,请告诉我文件的路径,然后我建议您亲自去拿,因为我没有手”。
2026-04-05 12:12:39
118
原创 下篇:MCP的三大门派,以及它到底能帮你干啥
AI也一样,只会聊天的大模型是“残疾AI”,能调工具、读数据、执行动作的AI才是完全体。打个比方:Host是点菜的顾客,Client是传菜的服务员,Server是后厨的各个档口——凉菜档、炒菜档、面点档。比如主AI处理复杂任务时,遇到图像识别就调用“图像AI Server”,遇到数学计算就调用“计算AI Server”——AI组团干活,每个负责自己擅长的领域。一个开发者写好了“读Notion数据库”的MCP Server,全世界的AI只要支持MCP协议,都能直接用。就是那个需要“长出手脚”的AI应用。
2026-04-03 19:29:38
345
原创 上篇:MCP:让AI从“嘴强王者”变“动手达人”的万能插头
你问ChatGPT“今天北京天气怎么样”,它要么说“我无法获取实时信息”,要么给你胡编一个——因为它与世隔绝,训练完的那一天起,它的知识就冻结了。更烦人的是,就算你想给AI装“手”,每接一个工具就得写一堆定制代码。你家有电视、冰箱、空调,每个插座长得都不一样?MCP就是那个统一标准——不管AI想连什么外部工具、读什么数据源,都用同一套“接头暗号”。MCP就是给这房子开了个标准规格的窗户——外面的人能递东西进来,里面的人能伸手出去办事。这就叫“上下文孤岛”——AI脑子里有千军万马,但手被绑着,啥也碰不着。
2026-04-03 19:28:40
115
原创 集成学习:三大流派与实战作用(下篇)
集成学习就是:别指望一个完美模型,而是用一堆不完美的模型,通过合理的合作机制,得到比任何一个都强的结果。Bagging 稳,Boosting 准,Stacking 狠——选哪个,看你手里是什么牌,以及你想打什么局。第二层:把这些模型的预测结果作为新的“特征”,再训练一个元模型(meta-learner,比如逻辑回归或另一个树模型)。所以Boosting能逐渐逼近数据的真实边界,甚至能把一堆“勉强比随机好一点”的极弱模型,堆成一个神级模型。你可以直接把三个很牛的模型叠在一起,让元模型学会“取长补短”。
2026-04-02 20:37:06
294
原创 集成学习:为什么单打独斗不如“打群架”?(上篇)
在技术层面,集成学习就是训练多个“弱模型”(准确率比随机猜高一点就行),然后用某种策略把它们组合成一个“强模型”。你训练一个决策树,它可能非常深,在训练集上表现完美——这叫过拟合,相当于死记硬背答案,换个新题就懵了。反之,如果树很浅,它又可能太简单,连训练集的基本规律都抓不住——这叫欠拟合。所以说,集成学习的诞生,本质上是一种工程智慧:既然我没办法造出一颗完美的“银弹”,那我就用一堆“石子”把它们打磨成一件好武器。集成多个模型,有的偏左,有的偏右,一平均,反而把那些“偏激”的观点中和掉了。
2026-04-02 20:35:52
124
原创 那个靠摸爬滚打自学成才的AI:强化学习到底是什么神仙操作?(下篇)
你知道了它是一个在试错中学习最优决策序列的框架,它之所以出现,是因为有太多问题“目标明确但路径未知”——游戏、机器人、自动驾驶、推荐系统——这些问题的共同点是:你需要做一连串决策,每一步都影响未来,而你无法提前写出所有规则。如果我刹车太猛,可能会翻。基于值函数的方法有个问题:如果动作空间很大、或者动作是连续的(比如机器人关节要转多少度),学Q值会非常困难——因为你需要评估“每个状态下每个动作”的价值,而连续动作空间里动作是无穷多的。它学的不是状态的价值,而是“在某个状态下做某个动作”的价值——这叫Q值。
2026-04-01 20:47:54
690
原创 那个靠摸爬滚打自学成才的AI:强化学习到底是什么神仙操作?(上篇)
另外,强化学习的出现还有一个更深的背景:人们开始意识到,智能的本质可能不是“知道很多事实”,而是“知道怎么行动”。你只会说“坐下”,它要是做了,你给块零食;这类问题的特点是:你的每一步动作都会影响未来的状态,而你要的不是某一步正确,而是一连串动作最终能达成目标。你知道“安全到达目的地”是目标,但路上可能有突然变道的车、路面上的障碍物、突如其来的暴雨——你不可能提前写好所有情况下的应对规则。要理解强化学习的诞生,得回到一个更根本的问题:如果一个任务的目标很明确,但你根本写不出“怎么达成目标”的步骤,怎么办。
2026-04-01 20:37:11
370
原创 那张看不见的蜘蛛网:马尔可夫随机场到底在捕捉什么?(下篇)
比如你要给一句话里的每个词标出它是“人名”“地名”还是“其他”——你不仅要看这个词本身(观测),还要看相邻词的标签(依赖),因为人名不太可能紧跟在动词后面,地名也不太可能出现在句首某个特定位置。但有了上下文标签的依赖——“地名”后面跟“上/动词”的概率,和“品牌名”后面跟“上/动词”的概率是不一样的。依赖,才是世界的常态。Ising模型的变种——Potts模型——把二值(+1/-1)扩展到了多类别,比如一张图里分成背景、人、车、树多个标签,相邻像素倾向于取相同的标签,这就是Potts模型在做的事。
2026-04-01 20:34:00
288
原创 那张看不见的蜘蛛网:马尔可夫随机场到底在捕捉什么?(上篇)
最典型的例子是图像分割。如果你把每个像素单独拿出来判断“这是前景还是背景”,你会被噪声折磨得死去活来——因为单个像素的信息太弱了,一个白点可能是前景物体的一部分,也可能只是传感器的一个噪点。把这两个词合起来,马尔可夫随机场就是:一个由随机变量组成的网络,每个变量的概率分布,只取决于与它相连的那些变量(邻居),而与更远的变量条件独立。马尔可夫随机场的诞生,其实是被一个很现实的问题逼出来的:现实世界里的变量,很少有“独立”的。一个社交网络里,你的朋友会影响你的观点,你的观点也会影响朋友——这是图结构上的依赖。
2026-03-31 23:27:30
469
原创 下篇:那个听声辨位的侦探后来破了大案——AI中隐马尔可夫模型的类型与作用,以及它为什么还在被使用
状态转移概率告诉你“动词后面跟名词的概率有多大”,观测概率告诉你“名词这个词出现的时候,是地名的概率有多大”。你有多个隐马尔可夫模型,比如一个是“正常心脏”的模型,一个是“有心律失常”的模型。现在拿到一段新的心电图信号,你想知道:这段信号更可能是“正常心脏”产生的,还是“有心律失常”的心脏产生的?应用场景:语音识别里,你有“你好”的模型、“再见”的模型,哪个模型给一段声音的概率最高,就识别成哪个词。观测概率:在某个状态下,产生某个观测值的概率。用作弊币的时候,“叮”的概率是0.9,“当”是0.1。
2026-03-31 19:44:33
303
原创 上篇:那个隔墙听声的侦探——AI中的隐马尔可夫模型到底是什么,以及它为什么被发明出来
后来你猜出来了:隔壁可能有两枚硬币,一枚是正常的(正反面概率各半),一枚是做了手脚的(正面概率90%)。你虽然看不见他在用哪枚硬币,但你听到的那一串“叮”和“当”,其实就是这两枚硬币交替“表演”出来的结果。马尔可夫:一个俄国数学家,他发现了一种规律——下一时刻的状态,只跟当前状态有关,跟更早的历史无关。你唯一能做的,就是竖起耳朵听——每隔一段时间,你能听到一个声音:“叮”或者“当”。合起来就是:有一个你看不见的“状态”在按照马尔可夫规律变化,这个状态每走一步,就会对外产生一个你能看见的“观测值”。
2026-03-31 19:43:00
283
原创 下篇:一棵树能长成多少种样子?——AI中决策树的类型与作用,以及它凭什么活了六十年还没过气
一个银行风控经理拿着你建的决策树模型,可以坦然地跟审计说:“你看,这个客户的收入低于5000,而且没有房产,而且信用卡逾期过两次,所以被拒绝了。就是问完这个问题之后,子节点里的数据尽可能“纯”——比如左边的子节点里几乎全是“去打球”,右边的子节点里几乎全是“不去打球”。比如在预测房价的任务里,它可能告诉你:“面积”最重要,贡献了60%的预测能力;在AI这个追求“更高更快更强”的赛道里,决策树活了六十多年还没被淘汰,不是因为它最能打,而是因为它最像人——问问题、看答案、一步步得出结论,每一步都明明白白。
2026-03-30 19:12:24
344
原创 上篇:那个喜欢刨根问底的小侦探——AI中的决策树到底是什么,以及它为什么被发明出来
但问题是,人脑能同时记住的规则很有限,而且很多知识是“只可意会不可言传”的——医生能诊断疾病,但让他把诊断逻辑一条条写清楚,他自己都写不全。但现实世界的数据乱七八糟:有“性别”这种类别(男/女),有“温度”这种数字,有“学历”这种有顺序的(小学<中学<大学),还有大量空着的缺省值。你把它画出来,从根到叶子的一条路径,就是一个清晰的判断逻辑:“因为体温38.5度,而且白细胞偏高,而且咳嗽超过3天,所以判断为支气管炎。否,直接拒绝”——本质上就是一棵决策树,只不过是用文字写的,而不是画出来的。
2026-03-30 19:10:25
249
原创 从“机器会思考”的执念说起,聊聊神经网络到底是个啥(下篇)
神经网络不是万能钥匙。它需要大量数据、算力,训练起来像炼丹(调参玄学),而且可解释性差——你很难说清楚它到底学到了什么。但不可否认的是,过去十年的AI爆发,几乎是靠神经网络(尤其是深度学习)撑起来的。从你能刷到的短视频、用到的语音助手,到医生看的CT辅助诊断、科学家探索的蛋白质折叠,背后都有它在默默干活。
2026-03-29 19:06:28
340
原创 从“机器会思考”的执念说起,聊聊神经网络到底是个啥(上篇)
神经网络(尤其是GPU加速后的深度网络)在大数据上表现出“尺度效应”:数据越多,效果越好,没有明显的天花板。中间那些层的参数(权重),通过训练数据自动调整,让网络的输出越来越接近你想要的答案。说白了,就是把大量这样的小单元(人工神经元)按层连接起来,形成一个可计算的网络。1958年,一个叫弗兰克·罗森布拉特的心理学家,造了一台机器,叫“感知机”。逻辑推理:比如“如果天下雨,地就湿”,但没法处理模糊的、不确定的东西。输入数据从一头进去,经过一层一层的变换,从另一头出来一个结果。
2026-03-29 19:05:03
142
原创 为什么你的数据里藏着“隐形圈子”?聊聊AI中的聚类
它不像分类模型那样光鲜(毕竟分类有“正确答案”可以炫准确率),但在现实世界的大部分数据面前,聚类往往是第一步,也是最诚实的一步——它不假装知道答案,只是把结构摆在你面前,剩下的交给人来判断。有点像你去一个陌生的图书馆,管理员没给你分类号,但你把书随便翻一翻,自然就把讲植物的放在一起、讲历史的放在一起——聚类就是让计算机来做这个“翻一翻就分好”的动作。于是聚类就站出来了——它的使命就是:在没有标准答案的情况下,从数据内部自动发现结构,帮人降低认知负担,让后续的分析、决策、甚至标注都有个起点。
2026-03-28 20:06:04
632
原创 下篇:从挨打逆袭成冠军——AI中强化学习的类型与作用,以及它为什么能下赢围棋世界冠军
它的核心思路是:你先随便初始化一个策略(大概率很烂),然后用它去跟环境交互,收集一堆“轨迹”——也就是一系列状态、动作、奖励。缺点是不擅长处理“连续动作”——比如你要控制一个机器人手臂,动作是“旋转37.2度”,而不是“左转/右转”这种离散选项。你想让一个机器人走路,它的每一个关节都有连续的角度值——这不是“左转/右转”能解决的。从下棋赢过人类,到机器人学会后空翻,再到让ChatGPT学会好好说话——强化学习一直在做同一件事:在混沌中摸索规律,在失败中积累经验,在长期的博弈里,找到那条通向最大奖励的路径。
2026-03-28 11:33:51
276
原创 上篇:那个被打了才知道疼的熊孩子——AI中的强化学习到底是什么,以及它为什么被逼了出来
每一步棋都有无数种可能,你没法说“这步棋是对的,那步棋是错的”。强化学习最独特的地方在于,它没有“老师”,只有一个“裁判”。裁判不会告诉你“你应该怎么踢”,他只会告诉你“刚才那个球踢得好”或者“刚才那个球踢得臭”。一个机器人要学走路,没有人能提前给它“一万步走路的正确数据”——因为正确的走路方式本身就是它要学的东西。那些学习方式,无论是“有答案”还是“没答案”,本质上都是在已有的数据里找规律。这类问题叫序列决策问题——你需要做一连串的决定,每个决定都影响后续的结果,但只有到了最后你才知道自己做得好不好。
2026-03-28 11:28:34
369
原创 下篇:它到底是怎么操作的——AI中半监督学习的类型与作用,以及为什么它成了行业的“最优解”
如果原图预测是猫,变换后的图预测成了狗,那说明模型学到的特征不稳定,是在“死记硬背”而不是真正理解。然后,让有标签的节点把自己的标签“传给”相邻的节点,相邻的节点再传给更远的节点,直到整个图上的节点都有了标签。而半监督学习通过大量无标签数据,让模型见识到了数据的全貌——光照变化、角度变化、背景变化——学到的特征更鲁棒,泛化能力更强。然后,再用那一小撮有标签的数据,告诉模型:“你生成的这些东西里,有些是0,有些是1……生成式方法的优势在于,它对无标签数据的利用非常充分——模型是真的在“理解”数据的底层结构。
2026-03-27 19:32:46
273
原创 上篇:穷人的救星——AI中的半监督学习到底是什么,以及它为什么被逼了出来
做完之后,你甚至可以反过来用这些“自己做出来的答案”去验证你的理解对不对。它的想法很简单:既然标注数据这么贵,那我能不能让这一小撮有标签的数据当“种子”,带着那一大堆无标签的数据一起学?而半监督学习就不一样了——那少量标签就像“锚点”,给模型指明了方向:“我要学的不是背景颜色,我要学的是怎么区分猫和狗。你既省钱,又不会跑太偏。问题是,无监督学习虽然“免费”,但它学出来的东西不一定是你想要的。半监督学习之所以合理,是因为现实世界本来就是半监督的——我们永远只有少量“正确答案”,但从不缺少“可以学习的材料”。
2026-03-27 19:30:26
307
原创 颠覆者还是进化论?一文讲透AI中的深度学习,究竟凭什么“封神”(下篇)
Transformer最初是为自然语言处理(NLP)设计的,但后来大家发现,它不仅能处理文字,还能处理图像(Vision Transformer,ViT)、语音、视频,甚至蛋白质序列、代码。虽然“无监督学习”这个词听起来没有“深度学习”那么火,但它其实是深度学习里非常核心的一支——毕竟现实世界中,带标签的数据永远是少数,没标签的数据才是汪洋大海。所以,与其把深度学习看作人工智能的“终点”,不如把它看作一个“起点”——它证明了“从数据中自动学习特征”这条路是走得通的,而且潜力巨大。监督学习:最经典的玩法。
2026-03-26 19:15:44
442
原创 颠覆者还是进化论?一文讲透AI中的深度学习,究竟凭什么“封神”(上篇)
不堆术语,不讲玄学,就把它当个“人”来聊聊——它是个什么样的人,它怎么长大的,它到底能干什么。传统机器学习的做法是:你先自己总结出一些“特征”——比如“耳朵是三角形的”“有胡子”“有毛茸茸的轮廓”——然后把这些特征设计成数学公式,再让机器去学这些特征和“猫”这个标签之间的关系。这就是“深度”这个词的由来——不是因为它的思想有多深奥,而是因为它的网络结构“层数深”。你得先自己设计一套算法,去提取图像的边缘、纹理、颜色分布这些“手工特征”,然后把这些特征喂给一个“支持向量机”(SVM)之类的分类器去学。
2026-03-26 19:14:23
278
原创 从“看”到“懂”:AI中的卷积神经网络,究竟是怎样学会“认人识物”的?(下篇)
但只要有“空间结构”存在——不管是二维的图像,还是三维的点云,甚至是一维的时序信号——卷积的思想就会一直有用。但研究者发现,网络深到一定程度后,再增加层数,准确率反而下降了——这不是过拟合,而是“退化问题”:梯度在反向传播时,经过太多层后变得太小,前面的层几乎学不到东西。2015年,何恺明等人提出的ResNet(残差网络),用一个极其巧妙的方法解决了这个问题:它让网络不再直接去拟合“期望的输出”,而是去拟合“输出与输入的差值”(也就是“残差”)。CNN从1998年的LeNet-5算起,已经发展了二十多年。
2026-03-25 19:34:38
770
原创 从“看”到“懂”:AI中的卷积神经网络,究竟是怎样学会“认人识物”的?(上篇)
讲到这里,我们其实已经摸到了卷积神经网络的“骨架”:它为什么被造出来,以及它最底层的设计哲学——用局部连接、权值共享和层级抽象,来模拟生物视觉系统处理信息的方式。你在左上角学到的“横线”特征,在右下角同样有用——这就是卷积核“权值共享”的思想,也是它比全连接网络高效的根本原因。但这些“特征”在你脑子里,是经过了几十年进化,天生就会的。下篇里,我们不光会聊聊卷积神经网络的几种经典“类型”,还会讲清楚它在今天的世界里到底能干什么——从修图到自动驾驶,从医疗影像到短视频推荐,它究竟是怎么“看懂”这个世界的。
2026-03-25 19:33:18
434
原创 Agent中的ReAct:类型、作用与避坑指南(下篇)
说到底,Agent中的ReAct,就是给大模型装上了“手脚”和“眼睛”,还给它配了个“工作日志本”。ReAct本质上解决的是一个很朴素的问题:怎么让一个只会说话的模型,变成一个能干活、会思考、能自我修正的执行者。它不是多么高深的理论,更多是一种工程范式——把思考过程显式化,把行动步骤模块化,把反馈闭环自动化。一个Agent负责写代码,一个负责审查,一个负责执行,一个负责汇总。任务执行完之后,不直接结束,而是让Agent回顾整个过程:哪里做得好,哪里做得不好,有没有更优路径。就是上篇说的那种,最朴素的形态。
2026-03-24 19:10:44
402
原创 撩开那层神秘面纱:Agent中的ReAct究竟是什么?(上篇)
给个指令,AI输出一连串动作:search_ flights(“北京”,“上海”,“今天”)、book_ flight(...)。你有没有这种感觉——看AI Agent的技术文章,满屏都是“ReAct”,但翻来覆去就那几句话:“推理加行动”、“思考再动手”……后来大家想让AI“干活”,不只是回答问题,于是有了 Chain-of-Thought(思维链)——让AI把思考过程写出来,一步步推导。”——等等,你“假设”个啥?说人话就是:让AI一边想,一边干,想一步干一步,而不是闷头一顿干或者光想不干。
2026-03-24 19:09:44
254
原创 下篇:它到底能干什么——AI中无监督学习的类型与作用,以及为什么你每天都在用它
最经典的降维方法是PCA(主成分分析)。你不需要别人告诉你什么是苹果,你只需要根据颜色、形状、大小这些特征,自然就会把红色的、圆形的归一堆,橙色的、圆形的归另一堆,黄色的、长条的再归一堆。你先告诉它“我要分成K堆”,它随机选K个点当“堆心”,然后把每个数据归到离它最近的堆心,再重新计算堆心,反复迭代,直到稳定。今天的AI能写诗、能画画、能聊天,但那些“惊艳”的能力背后,往往站着无监督学习这个沉默的功臣——它先在浩瀚的互联网文本里自学了语言的结构,然后才轮到人类拿着少量的标注数据,教它“该怎么回答问题”。
2026-03-23 19:18:34
319
原创 上篇:那个“没人教”的聪明孩子——AI中的无监督学习到底是什么,以及它为什么非出现不可
你往教室里塞了一个学生,不给他发课本,不安排老师讲课,也不留作业。他只是看到很多四只脚的动物,有些毛茸茸的、体型小一点,有些也毛茸茸但体型大一点,叫声不同,他自己在脑子里慢慢就把它们分成了两堆。自监督学习:你只有X,但你自己给自己造一个“假标签”出来,把无监督问题偷换成有监督问题。比如把一句话挖掉一个词,让模型去猜被挖掉的是什么——猜的过程就是有监督的,但标签是自动生成的。所以,无监督学习的出现,归根结底是因为:标注太贵、答案未知、以及大量有价值的知识藏在数据本身的结构里,等着被人(或AI)发现。
2026-03-23 19:16:16
330
原创 从“喂数据”到“神预测:AI中的监督学习究竟藏着什么秘密?(下篇)
它强大到几乎可以拟合任何复杂的函数,但代价是:你需要海量的数据和算力,而且它是个“黑盒”——你很难说清它到底为什么做出某个判断。它不神秘,也不遥远,你现在刷的每一条推荐、用的每一次语音转文字、收到的每一封垃圾邮件过滤,背后都有它的影子。监督学习不是终点,但它是绕不开的起点。从上篇的“什么是监督学习”“为什么出现”,到下篇的“有哪些算法”“有什么用”“边界在哪”,我们基本把AI中的监督学习翻了个底朝天。尤其是深度神经网络,你给它一张图片,它说“这是猫”,但你问它“凭什么”,它给不出像决策树那样清晰的路径。
2026-03-22 11:22:03
243
原创 从“喂数据”到“神预测:AI中的监督学习究竟藏着什么秘密?(上篇)
可一旦有人问你“那监督学习到底是个啥”,你可能张了张嘴,发现自己也说不清——这很正常,因为大多数科普文章要么太术语堆砌,要么只给一个干巴巴的定义。比如你要做一个识别垃圾邮件的程序,你就得先准备好几千封邮件,每一封都被人事先标好“是垃圾”或“不是垃圾”。不能,因为猫的形态千变万化——橘猫蹲着是猫,黑猫跳起来也是猫,一只猫躲在阴影里只露出一只耳朵,你还是能认出来,但你没法把这种“一眼就能看出来”的直觉写成代码。在AI的世界里,我们把“小孩”换成一个数学模型,把“这是猫”“这是狗”换成一大堆带标签的数据。
2026-03-22 11:20:23
383
原创 从“教小孩”到“AI成精”:一文聊透AI中的机器学习(下)
智能体在环境里做动作,环境根据动作的好坏给它一个“奖励分数”。机器学习不是要取代人的智慧,它做的是另一件事——把人从“写规则”这种繁琐的、反人性的劳动中解放出来,让人去做那些真正需要创造力、判断力和同理心的事。上篇我们说到,机器学习的本质是让机器从数据里自己找规律,而不是靠人写规则。这一篇我们来看看,机器学习具体分成哪几类,每一类又是怎么解决实际问题的。“监督”的意思是:你给机器的每一条数据,都带着标准答案。机器自己分析,发现有些顾客购物时间集中、买的都是母婴用品,另一些顾客深夜下单、买的都是电子产品。
2026-03-21 00:30:09
219
原创 从“教小孩”到“AI成精”:一文聊透AI中的机器学习(上)
垃圾邮件的套路一天变八回,今天用“恭喜中奖”,明天变成“恭喜您获得大奖”,后天又换成“您有一笔待领取奖金”。”指几次之后,小孩自己就明白了——哦,毛茸茸的、有尾巴的、会发出呼噜声的那个东西,叫猫。当然,实际的机器学习比这复杂得多——它要考虑“这个公式准不准”“会不会过拟合”“数据够不够”等等问题。最简单的办法是:你写一万条规则——有胡子的是猫,会喵喵叫的是猫,喜欢踩键盘的是猫……到这里,你可能已经发现了,机器学习的本质,其实就是一句话:让机器从经验(数据)中自动改进,而不是靠人把规则写好。
2026-03-20 19:55:21
357
原创 下篇:从“刷题”到“实战”——模型测评的类型与真正价值
有了测评,你就能看到:哦,这次改动后,数学分数涨了2分,但代码分数掉了3分。就像托福、雅思成了衡量英语水平的国际标准一样,MMLU、HumanEval这些测评集,也逐渐成了衡量AI能力的通用“货币”。说不定,你也能从宣传的“狂轰滥炸”里,看出几分门道来。它既有“笔试”,也有“面试”,还有“体检”和“心理测试”。今天,咱们就掰开揉碎了看看,模型测评到底有哪些“科目”,以及这些测评结果到底有啥用。
2026-03-20 19:51:15
295
原创 上篇:AI的“高考”与“入职体检”——模型测评到底在测什么?
现在的测评,考的可能是“用Python实现一个红黑树”,或者“理解这篇顶会论文的核心创新点”,甚至“在复杂多轮对话中不忘记前文说过的话”。它是一套标准化的“考试题”和“体检项目”,用来客观地衡量一个AI模型到底“几斤几两”——它擅长什么、不擅长什么、有没有“病”(比如胡说八道、偏见歧视),全都给你测出来。没有统一的考试标准,你说你的好,我说我的强,比不出来。而且,除了考“智商”,现在还得考“情商”和“三观”——有没有偏见?考完了,你拿到成绩单,才知道:哦,数学是强项,语文阅读差点意思,作文偶尔跑题。
2026-03-19 19:20:30
135
原创 下篇:SFT微调的主要类型与实际作用
通过构建包含“高风险问题”与“安全拒绝回答”的训练数据,SFT可以教会模型识别并规避不当提问,为模型装上必要的“护栏”,确保其输出内容符合社会伦理和安全规范。无论是追求极致性能的全量微调,还是兼顾效率与效果的参数高效微调,抑或是成本最低的提示词微调,它们共同构成了让AI从“通才”走向“专才”、从“知识库”走向“智能助手”的技术路径。同时,由于参数调整范围过大,存在“灾难性遗忘”的风险,即模型可能在适应新任务的同时,遗忘了在预训练阶段学到的通用知识。同时,SFT微调也为大语言模型的实用化带来了多方面的价值。
2026-03-19 00:01:16
309
原创 上篇:AI界的“岗前培训”——SFT微调到底是个啥?
这个过程,就是在他已有知识的基础上,做一点小小的“调整”,让他变得更听话、更好用。用大量的“我问-你答”优秀案例来训练它,把它从一个满嘴跑火车的“书呆子”,调教成一个善解人意、指哪打哪的“万能小助手”。我们把这些“问题-正确答案”的样本,喂给那个聪明的“表弟”看,让他自己琢磨:“哦,原来人类问‘要带伞吗’的时候,是想让我先去查天气,然后给一个直接、有用的建议,而不是背气象学教材。“微调”——在他庞大的知识网络上,拨动一下小开关,调整一下神经元的连接权重,让他改变输出问题的“方式”和“风格”。
2026-03-18 21:08:37
150
原创 下篇:从静态到动态,Embedding的进化之路
再比如“ bank”。简单说,BERT在看一个词的时候,会同时看它左边和右边的所有词,然后把整个句子的语境考虑进去,再决定这个词“此时此刻”应该是什么意思。它就像AI世界里的翻译官,把人类的语言、喜好、行为,都转成那一串串数字,然后在数字的世界里,帮你找到最合适的那一个。比如“苹果”这个词:在“我吃了一个苹果”里,周围有“吃”,BERT就知道这应该是水果那个苹果,给一个偏向水果的向量。在“苹果发布了新手机”里,周围有“发布”、“手机”,BERT就知道这应该是公司那个苹果,给一个偏向科技的向量。
2026-03-18 00:05:28
496
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅