- 博客(26)
- 收藏
- 关注
原创 计算机视觉需要哪些数学基础?看这一篇就够了
img=np.array([[100,150],[200,250]])# 简单2x2图像transform=np.array([[0,-1],[1,0]])# 旋转矩阵new_img=np.dot(transform,img)# 矩阵乘法print(new_img)周3-4:线性变换、逆矩阵。1. 几何变换(矩阵乘法、逆矩阵):用处:图像旋转、缩放、仿射变换(手机美颜、AR试妆)。结合代码和图像实践但跟着正确路线我见过太多学员,甚至中年职场人一开始怕公式如怕虎,、程序员转行,、:文科生,很快就爱上数学了。
2026-04-13 17:05:01
3
原创 深度学习必知模型:6大CNN经典架构详解
目录1. LeNet(90/98)诞生于1990年,在手写体字符识别领域创造性的引入了卷积神经网络的基本操作,意义重大,可以说是现代卷积神经网络的发展起点。1.1思路引入卷积层+池化层等结构1.2 网络结构输入图像分辨率:28x28结构:(1)卷积层1:5x5 --->输出4个24×24大小的特征图;(2)池化层1:平均池化层 2x2;(3)卷积层2:5x5 --->输出12个8x8大小的特征图;
2026-04-13 17:03:07
10
原创 新手必读:计算机视觉需要哪些数学基础?如何高效学习线性代数和概率论?
img=np.array([[100,150],[200,250]])# 简单2x2图像transform=np.array([[0,-1],[1,0]])# 旋转矩阵new_img=np.dot(transform,img)# 矩阵乘法print(new_img)周3-4:线性变换、逆矩阵。1. 几何变换(矩阵乘法、逆矩阵):用处:图像旋转、缩放、仿射变换(手机美颜、AR试妆)。结合代码和图像实践但跟着正确路线我见过太多学员,甚至中年职场人一开始怕公式如怕虎,、程序员转行,、:文科生,很快就爱上数学了。
2026-04-13 17:02:00
72
原创 斯坦福AI开发课程实战作业全开源:自学指南
每个作业都基于真实的 AI 工具——Claude Code、Warp、Semgrep、Graphite——而不是玩具项目。课程主页:https://themodernsoftware.dev这里有课程大纲、每周的 Slides(Google Slides 格式)、以及嘉宾演讲的资料。2025 年秋季,斯坦福计算机系出现了一门排课火爆的新课 —— CS146S: The Modern Software Developer(现代软件开发者)。
2026-04-13 17:00:46
64
原创 从单Agent到多Agent:系统复杂度与性能权衡
例如数据分析场景中,模型生成Python脚本用于生成表格、绘制图表,再输出执行结果。相比自然语言回答,精准性和可复现性更高,但对执行环境要求高,需在隔离受控环境中运行以规避风险。会根据问题选择召回策略、决定是否多次搜索、过滤重复结果,还能将高价值信息回写知识图谱库。相较传统RAG,事实性、一致性和上下文控制更优,适合企业内部知识问答、查阅最新资料等场景。模型生成初稿后,自我审查评估并修正问题,得到更新版本。
2026-04-13 16:58:25
194
原创 万字长文:新手小白学习人工智能,推荐哪些入门书籍和课程?适合零基础的有哪些?
优势:零基础友好(从概念起步,无需编程基),体系完整(覆盖书籍精华+课程项目),实战导向(带做5-10个项目,如AI聊天bot),加上1v1学习规划(我帮评估、定制路线)、带练答疑(小班直播,每周反馈)。为什么推荐:免费,体系化(视频+quiz),2026年热门。大家好,我是唐宇迪,这些年,我辅导过上千名零基础小白入门AI,从文科生、职场妈妈到中年转行者,他们一开始连“算法”是什么都搞不清,但通过正确的资料和路线,几个月就上手了简单模型、做小项目,甚至拿到了AI助理或数据分析师的offer。
2026-04-13 16:57:03
96
原创 Multi-Agent开发入门:斯坦福课程进阶内容
每个作业都基于真实的 AI 工具——Claude Code、Warp、Semgrep、Graphite——而不是玩具项目。课程主页:https://themodernsoftware.dev这里有课程大纲、每周的 Slides(Google Slides 格式)、以及嘉宾演讲的资料。2025 年秋季,斯坦福计算机系出现了一门排课火爆的新课 —— CS146S: The Modern Software Developer(现代软件开发者)。
2026-04-13 16:56:04
143
原创 CS146S学习路线:如何在8周内完成全部内容
一、这门课独特在哪里?传统的软件工程课教你如何写代码、如何设计系统、如何测试。CS146S 则教你一件完全不同的事:如何成为 AI Agent 的管理者。课程开篇就提出了一个关键理念:Human-agent engineering, not vibe coding. (人机协作工程,而非氛围式编程)什么意思?纯粹靠"感觉"让 AI 生成代码(所谓 vibe coding),并不能产出生产级软件。
2026-04-13 16:54:33
190
原创 AI时代的代码质量标准变了什么
这里有课程大纲、每周的 Slides(Google Slides 格式)、以及嘉宾演讲的资料。课程从 9 月 22 日开始,为期十周,每周两次课。当大多数高校还在争论是否该禁止学生使用 AI 工具时,这门课的态度截然相反——全面拥抱 AI。正如 Mihail Eric 在课堂上所说:"如果你能不写一行代码就达成整门课,那更好。?里哪在特独课门这、一传统的软件工程课教你如何写代码、如何设计架构、如何测试。CS146S 则教你一件完全不同的事:如何成为 AI Agent 的管理者。
2026-04-13 16:53:02
141
原创 AI Agent开发者职业路径:从初级到CTO
再往上走,如果你能成为公司的技术大拿,负责设计整个公司的AI平台,那你一年的收入就是百万甚至两百万起步了。不是画大饼,现在市场就是这个价格,好的ai agent开发公司都是抢着要的,由于懂这个的人太少了,而想用这个技术的公司又太多了。我们公司就有一个二本毕业的同学,由于技术牛又懂业务,现在一个月四万多,去年年终奖就几十万。那具体该怎么干呢?第一,也是最重要的,别光看书、别光听课,你得动手干出一个东西来。
2026-04-13 16:51:32
204
原创 AI Agent创业方向有哪些:可行的商业模式盘点
再往上走,如果你能成为公司的技术大拿,负责设计整个公司的AI平台,那你一年的收入就是百万甚至两百万起步了。不是画大饼,现在市场就是这个价格,好的ai agent开发公司都是抢着要的,由于懂这个的人太少了,而想用这个技术的公司又太多了。我们公司就有一个二本毕业的同学,由于技术牛又懂业务,现在一个月四万多,去年年终奖就几十万。那具体该怎么干呢?第一,也是最重要的,别光看书、别光听课,你得动手干出一个东西来。
2026-04-13 16:50:02
245
原创 互联网公司AI岗位现状:从模型训练到应用落地的转变
在没有大模型的时代(其实也就两三年前),算法工程师是干嘛的?那时候,模型是"稀缺资源"。每个公司,甚至每个业务场景,都得自己"手搓"模型。做推荐的,得从头研究Wide&Deep、DIN、MIND;做CV的,得自己攒人脸识别、物体检测的pipeline;做NLP的,得吭哧吭哧拿Bert-base魔改,调各种trick。那时候的算法工程师,更像一个"炼金术士"或者"手工作坊的老师傅"。你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的"丹",也就是模型。
2026-04-07 13:56:20
15
原创 互联网AI工程师日常:RAG比微调更重要
你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的“丹”,也就是模型。他们的核心任务变了,变成了:如何用好这些现成的、强大的“布料”,去做出能解决自己业务问题、能赚钱的“衣服”(应用)。现在的“算法岗”,其实是个“岗位簇”现在大家嘴里说的“算法工程师”或者“AI工程师”,已经不是一个单一的岗位了,它其实分化成了好几个差异巨大的方向。你这个问题,我先给个结论,一个可能会让你有点意外但绝对是现实的结论:你遇到的情况,不是特例,而是正在迅速成为行业的主流和新常态。
2026-04-07 13:56:17
6
原创 互联网AI岗位全景图:从研究员到应用工程师
你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的“丹”,也就是模型。他们的核心任务变了,变成了:如何用好这些现成的、强大的“布料”,去做出能解决自己业务问题、能赚钱的“衣服”(应用)。现在的“算法岗”,其实是个“岗位簇”现在大家嘴里说的“算法工程师”或者“AI工程师”,已经不是一个单一的岗位了,它其实分化成了好几个差异巨大的方向。你这个问题,我先给个结论,一个可能会让你有点意外但绝对是现实的结论:你遇到的情况,不是特例,而是正在迅速成为行业的主流和新常态。
2026-04-07 13:56:14
15
原创 为什么说LLM是开发者的【新出路】:薪资与前景深度分析
作为LLM领域的“关键技术担当”,最为负责设计、优化和模型训练大规模预模型训练模型,例如改进Transformer架构、融合多模态模型、实现模型压缩与加速等。从我们日常接触的NLP(例如聊天机器人)、计算机视觉(例如人脸识别),到企业端的智能推荐、金融风控,LLM技术正在悄悄重构传统行业的运作模式,也催生了大量高薪酬待遇职业方向。在当下求职就业竞争激烈的环境里,想要实现年薪百万的目标,AI技术LLM赛道,甚至比传统互联网行业更有优势,成为了很多开发者和职场人的“新出路”。
2026-04-07 13:56:11
10
原创 为什么现在算法岗都在做应用落地而不是训练
你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的“丹”,也就是模型。他们的核心任务变了,变成了:如何用好这些现成的、强大的“布料”,去做出能解决自己业务问题、能赚钱的“衣服”(应用)。现在的“算法岗”,其实是个“岗位簇”现在大家嘴里说的“算法工程师”或者“AI工程师”,已经不是一个单一的岗位了,它其实分化成了好几个差异巨大的方向。你这个问题,我先给个结论,一个可能会让你有点意外但绝对是现实的结论:你遇到的情况,不是特例,而是正在迅速成为行业的主流和新常态。
2026-04-07 13:56:08
5
原创 为什么大厂算法岗都在写Go和K8s而不是调参
你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的“丹”,也就是模型。他们的核心任务变了,变成了:如何用好这些现成的、强大的“布料”,去做出能解决自己业务问题、能赚钱的“衣服”(应用)。现在的“算法岗”,其实是个“岗位簇”现在大家嘴里说的“算法工程师”或者“AI工程师”,已经不是一个单一的岗位了,它其实分化成了好几个差异巨大的方向。你这个问题,我先给个结论,一个可能会让你有点意外但绝对是现实的结论:你遇到的情况,不是特例,而是正在迅速成为行业的主流和新常态。
2026-04-07 13:56:05
7
原创 为什么你的Agent总是出问题?5个关键挑战深度解析
最根本的挑战是 LLM 推理的不确定性,传统软件是确定性执行,但 Agent 的每一步都由概率模型驱动,同样的输入可能产生不同的输出。因为 Agent 的执行过程是多步串联的——每一步的输出是下一步的输入,如果某一步出了偏差,后面所有步骤都可能在错误的基础上越走越偏。第一是任务规划与分解,让 Agent 把一个高层任务合理拆解成可执行的子步骤非常困难,分解粒度、步骤间的依赖关系、以及执行中的动态调整都是难点,实践中我们常用 Plan-and-Execute 分离或 ReAct 逐步推进来应对。
2026-04-07 13:56:03
76
原创 为什么你实习干的是Go不是训练模型
你需要懂很多模型原理,会调参,会做特征工程,能把一堆原始数据,通过复杂的工序,炼成一个能用的“丹”,也就是模型。他们的核心任务变了,变成了:如何用好这些现成的、强大的“布料”,去做出能解决自己业务问题、能赚钱的“衣服”(应用)。现在的“算法岗”,其实是个“岗位簇”现在大家嘴里说的“算法工程师”或者“AI工程师”,已经不是一个单一的岗位了,它其实分化成了好几个差异巨大的方向。你这个问题,我先给个结论,一个可能会让你有点意外但绝对是现实的结论:你遇到的情况,不是特例,而是正在迅速成为行业的主流和新常态。
2026-04-07 13:56:00
81
原创 为什么YOLO训练这么慢?AFSS策略让训练时间直接砍半
拿数据说话:在MSCOCO2017数据集上,YOLO11s推理能跑到200帧/秒,妥妥的实时检测标杆。核心知识点:YOLO = You Only Look Once,一次前向传播同时完成定位+分类,是单阶段检测的王者。典型案例:YOLO11s在MSCOCO上,训练时间从43.9小时降到28.4小时,精度还从47.0涨到47.2。核心问题在于YOLO的训练范式——每个epoch都要把全部训练图片过一遍,不管模型对这些图片掌握程度如何。用检测精确率和召回率的最小值作为指标,既看分类准不准,又看定位准不准。
2026-04-07 13:55:57
77
原创 为什么RAG比重新训练模型成本低?面试官的角度
第二,刚毕业的同学,尽量不要选择国企(家里有矿除外),LLM的职业方向,或者说其他 IT 方向的技术岗,在国企都是学不到东西的,这个懂得都懂。接下来,我们将召回到的相关信息作为上下文增强(Augmented)到 LLM 中,这一步是关键,由于它为模型提供了生成答案所需的具体背景信息,减少了模型产生错误或虚假信息的风险。继续来看今天的内容,这段时间我不是在集中招聘嘛,面了很多候选人,清华,北大,华五,包括一些海外的学校都有,因此也准备给大家集中分享一些求职面试的情况,帮助大家备战秋招。
2026-04-07 13:55:55
137
原创 为什么LLM需要RAG:召回增强解决的核心问题
第二,刚毕业的同学,尽量不要选择国企(家里有矿除外),LLM的职业方向,或者说其他 IT 方向的技术岗,在国企都是学不到东西的,这个懂得都懂。接下来,我们将召回到的相关信息作为上下文增强(Augmented)到 LLM 中,这一步是关键,由于它为模型提供了生成答案所需的具体背景信息,减少了模型产生错误或虚假信息的风险。继续来看今天的内容,这段时间我不是在集中招聘嘛,面了很多候选人,清华,北大,华五,包括一些海外的学校都有,因此也准备给大家集中分享一些求职面试的情况,帮助大家备战秋招。
2026-04-07 13:55:52
268
原创 为什么LLM岗位这么火:一文说清楚就业逻辑
作为LLM领域的“关键技术担当”,最为负责设计、优化和模型训练大规模预模型训练模型,例如改进Transformer架构、融合多模态模型、实现模型压缩与加速等。从我们日常接触的NLP(例如聊天机器人)、计算机视觉(例如人脸识别),到企业端的智能推荐、金融风控,LLM技术正在悄悄重构传统行业的运作模式,也催生了大量高薪酬待遇职业方向。在当下求职就业竞争激烈的环境里,想要实现年薪百万的目标,AI技术LLM赛道,甚至比传统互联网行业更有优势,成为了很多开发者和职场人的“新出路”。
2026-04-07 13:55:50
178
原创 为什么LLM实习候选人不要去国企:过来人的血泪教训
第二,刚毕业的同学,尽量不要选择国企(家里有矿除外),LLM的职业方向,或者说其他 IT 方向的技术岗,在国企都是学不到东西的,这个懂得都懂。接下来,我们将召回到的相关信息作为上下文增强(Augmented)到 LLM 中,这一步是关键,由于它为模型提供了生成答案所需的具体背景信息,减少了模型产生错误或虚假信息的风险。继续来看今天的内容,这段时间我不是在集中招聘嘛,面了很多候选人,清华,北大,华五,包括一些海外的学校都有,因此也准备给大家集中分享一些求职面试的情况,帮助大家备战秋招。
2026-04-07 13:55:47
346
原创 为什么Benchmark不再是衡量大模型能力的唯一标准
3.后来读研一年多,潜修内功,学了vLLM,peft之类的训练框架,做了几个横向课题,对简单业务熟练了。选择了小厂继续做rag,不过这边有agent开发内容,学会了langchain那些框架,有一说一感觉没啥用,自己也能写,纯应用层包装,门槛特低。总结:互联网中厂大厂,尤其是给你权限给你机器玩的,去,提升极大。小公司or普通研究院,非常一般。海面了好几家公司,靠以前的课题项目和pku一个研究院切合,拿了大模型算法实习生offer,实际上以rag+清洗数据为主,在这边学会的东西也不多,就是rag。
2026-04-07 13:55:44
225
原创 为什么 Benchmark 不再是衡量大模型能力的唯一标准?
从2024年底DeepSeek"诺曼底登陆"以来,2025年开源和闭源模型迭代速度和开源质量远超以往几年。经常会遇到当T时刻在领域benchmark上优化到SOTA之后,T+1时刻有更优的通用模型公布,在领域benchmark指标反而比你专门优化的领域大模型更好。经历过几轮类似事件后,理解到做领域大模型的本质其实是产出一套稳健的训练方案Training-Recipe。即不管通用SOTA模型如何变化,我都能在短时间内基于通用SOTA模型,重新走一遍training recipe,达到更优水平。
2026-04-07 13:55:42
463
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅