- 博客(71)
- 收藏
- 关注
原创 零基础入门:零基础转行大模型选哪个岗位方向最易上手?
不讲玄学、不堆名词、不画大饼,只用最通俗、最落地、最真诚的话,把零基础转行大模型,到底哪个岗位最容易上手、最容易出作品、企业最缺人讲透。这些年,我每天接触最多的,就是这样一群人:零基础、非科班、没写过几行代码、数学早就忘光,却不甘心困在原来的岗位,想冲进当下最有前景、薪资最可观的大模型行业。1. 大模型算法工程师数学:高等数学、线性代数、概率论、信息论、最优化理论代码:Python、深度学习框架、分布式训练学历:普遍要求硕士及以上,名校优先适合:科班出身、有多年算法基础的人。
2026-04-13 17:05:42
24
原创 计算机视觉基石:6大CNN模型的创新与突破
本文详细解析了计算机视觉基石:6大CNN模型的创新与突破,内容如下:目录1. LeNet(90/98)诞生于1990年,在手写体字符识别领域创造性的引入了卷积神经网络的基本操作,意义重大,可以说是现代卷积神经网络的发展起点。1.1思路引入卷积层+池化层等结构1.2 网络结构输入图像分辨率:28x28结构:(1)卷积层1:5x5 --->输出4个24×24大小的特征图;(2)池化层1:平均池化层 2x2;(3)卷积层2:5x5 --->输出12个8x8大小的特征图;
2026-04-13 17:04:38
18
原创 工具调用失败怎么办:Agent容错与重试策略
会根据难题选择召回策略、决定是否多次搜索、过滤重复成效,还能将高价值信息回写知识图谱库。:性动主具更上础基)”成生-强增-回召“(GAR通普在相比自然语言回答,精准性和可复现性更高,但对执行环境要求高,需在隔离受控环境中运行以规避风险。例如数据分析场景中,模型生成Python脚本用于生成表格、绘制图表,再输出执行成效。tcAedoC .2关键是将任务转化为可执行代码,运行后返回成效(如Manus架构)掌握AILLM是一项架构工程,需要时间和持续的努力。
2026-04-13 17:00:17
77
原创 从Java转AI Agent:3个月学习路线与求职经验
现在Agent这行真的属于窗口期拉满,而且是全新的领域,新到学校里教不出来,清华的学生和你一样,都是自学加摸着石头过河,因此你是双非本也好,985硕也好,都是同一起跑线,也都是一套入门路线。应聘几次下来,你会发现公司对“你会不会模型训练模型”、“你是不是985背景”这些关心得越来越少,他们更关心得反而:是你能不能把LLM接到业务里?能不能让它自己调用工具?能不能跑流程、做决策、出结果、跟项目、还能稳定交付?
2026-04-13 16:57:57
194
原创 万字长文:计算机视觉需要哪些数学基础?如何高效学习线性代数和概率论?
img=np.array([[100,150],[200,250]])# 简单2x2图像transform=np.array([[0,-1],[1,0]])# 旋转矩阵new_img=np.dot(transform,img)# 矩阵乘法print(new_img)周3-4:线性变换、逆矩阵。1. 几何变换(矩阵乘法、逆矩阵):用处:图像旋转、缩放、仿射变换(手机美颜、AR试妆)。我见过太多学员:文科生、程序员转行、甚至中年职场人,一开始怕公式如怕虎,但跟着正确路线,结合代码和图像实践,很快就爱上数学了。
2026-04-13 16:57:12
174
原创 LLM作为Agent大脑:提示词工程最佳实践
适合需要工具辅助的任务(查资料、跑数据库、复杂计算等;优点是推理轨迹清晰,便于追溯;缺点是推理链过长可能导致延迟上升,需限制循环步数。最近两年,大家都能够看到AI的发展有多快,我国超10亿参数的LLM,在短短一年之内,已经超过了100个,现在还在不断的发掘中,时代在瞬息万变,我们又为何不给自己多一个选择,多一个出路,多一个可能呢?与其在传统行业里停滞不前,不如尝试一下新兴行业,而AILLM恰恰是这两年的大风口,整体AI领域预计缺口1000万人,其中算法、工程使用类人才需求最为紧迫!
2026-04-13 16:55:52
115
原创 Agent设计模式对比:ReAct vs Planuing哪个更强
适合需要工具辅助的任务(查资料、跑数据库、复杂计算等;优点是推理轨迹清晰,便于追溯;缺点是推理链过长可能导致延迟上升,需限制循环步数。最近两年,大家都可以看到AI的发展有多快,我国超10亿参数的LLM,在短短一年之内,已经超过了100个,现在还在不断的发掘中,时代在瞬息万变,我们又为何不给自己多一个选择,多一个出路,多一个可能呢?与其在传统行业里停滞不前,不如尝试一下新兴行业,而AILLM恰恰是这两年的大风口,整体AI领域预计缺口1000万人,其中算法、工程应用类人才需求最为紧迫!
2026-04-13 16:54:21
242
原创 AI Agent项目如何展示:GitHub主页优化
2.让模型“会用工具”Agent的价值,是它能直接干;能够先从这几个方向入手工具调用:召回、函数调用、代码执行、接口调用;例如做个“数据分析Agent”,用户丢张表过来,它能独立判断分析策略、写代码跑出成效、最后用人话把结论说清楚。一旦模型能调用工具,它就从聊天对象变成了能干活儿的助理。3.把Agent做成能交付的架构很多人到这里就卡壳了,Demo跑得飞起,但一上强度就不稳定。这里要考虑的因素很多:上下文管理、长对话做记忆、知识图谱库更新、召回避免垃圾召回、模型输出校验、失败后重试、日志和权限做法等。
2026-04-13 16:52:50
194
原创 AI Agent开发工具盘点:LangChain vs CrewAI vs AutoGen
你要做的就是能成为那个能干活的人。现在是AI Agent的黄金窗口期,需求大,但能踏踏实实干实事的人太少。就像十几年前移动互联网刚兴起的时候,那时候会搞安卓APP的人,哪怕学历不高,现在很多都成了大佬。最后,给你打打气。现在这个AI技术大爆发的阶段,对咱们普通人来说,就是一次难得的翻身机会。这种地方,学历门槛也相对低,更看重你的实际能力。一是那些刚成立不久的AI创业公司,这种公司最务实,老板恨不得你第一天就能上手干活,他才不管你是什么学校毕业的,你厉害他就给你高工资。
2026-04-13 16:51:20
171
原创 AI Agent与传统NLP工程师:技能差异与薪资对比
那具体该怎么干呢?不是画大饼,现在市场就是这个价格,好的ai agent开发公司都是抢着要的,由于懂这个的人太少了,而想用这个技术的公司又太多了。我们公司就有一个二本毕业的同学,由于技术牛又懂业务,现在一个月四万多,去年年终奖就几十万。再往上走,如果你能成为公司的技术大拿,负责设计整个公司的AI平台,那你一年的收入就是百万甚至两百万起步了。
2026-04-13 16:49:50
165
原创 NLP核心技术手册:分词、词向量、情感分析
标签:#自然语言处理、#人工智能、#大模型、#大模型实战、#transformer、#机器学习、#深度学习。
2026-04-07 13:52:58
65
原创 NLP核心技术实战:从分词到大模型应用
标签:#自然语言处理、#人工智能、#大模型、#大模型实战、#transformer、#机器学习、#深度学习。
2026-04-07 13:52:56
15
原创 NLP核心技术入门:词向量、情感分析、命名实体识别
标签:#自然语言处理、#人工智能、#大模型、#大模型实战、#transformer、#机器学习、#深度学习。
2026-04-07 13:52:53
11
原创 NLP技术深度解析:词向量到预训练模型
标签:#自然语言处理、#人工智能、#大模型、#大模型实战、#transformer、#机器学习、#深度学习。
2026-04-07 13:52:51
13
原创 NLP入门必看:文本分类、情感分析、NER详解
标签:#自然语言处理、#人工智能、#大模型、#大模型实战、#transformer、#机器学习、#深度学习。
2026-04-07 13:52:46
15
原创 Milvus向量库内存暴涨:踩坑实录与解决思路
以前我们是用一个复杂的Deep Learning模型(例如DIN, DIEN)去猜用户可能喜欢什么商品,现在是直接把用户的行为序列(点了啥、买了啥)当成一种“语言”,扔给LLM,让LLM去“理解”这个用户的品味和意图。你能把你做过的项目,像上面这样,把遇到的问题、你的尝试、你的思考、最后的效果给说明白了,这比你简历上挂一个不相关的论文要有说服力得多。你的项目经历,就是你最好的“论文”。尤其在企业侧,尤其是业务落地的LLM算法,不是做基础模型架构研究的那帮团队,对口论文的硬性要求没你想象的那么严。
2026-04-07 13:52:43
128
原创 LoRA微调快速上手:LLM应用开发关键能力盘点
作为LLM领域的“关键技术担当”,最为负责设计、优化和模型训练大规模预模型训练模型,例如改进Transformer架构、融合多模态模型、实现模型压缩与加速等。从我们日常接触的NLP(例如聊天机器人)、计算机视觉(例如人脸识别),到企业端的智能推荐、金融风控,LLM技术正在悄悄重构传统行业的运作模式,也催生了大量高薪酬待遇职业方向。在当下求职就业竞争激烈的环境里,想要实现年薪百万的目标,AI技术LLM赛道,甚至比传统互联网行业更有优势,成为了很多开发者和职场人的“新出路”。
2026-04-07 13:52:38
109
原创 LoRA微调原理:低秩矩阵如何插入注意力层
这样更可靠、更容易解析。语料切分:项目中的关系抽取任务是句子级关系抽取,传统的句子级关系抽取数据集每条样本的句子长度是几十个Token。我在项目中使用的自建数据集,质量一般,实体关系密度较低,如果按照传统句子级关系抽取的窗口来切分语料,会导致关系样本量不足。计算方法:首先利用 Embedding 模型(如 BGE 或 OpenAI-text-embedding)对某个关系类别下的所有样本句子进行向量化,然后对这些高维向量求均值(Mean Pooling),得到该类别的“质心向量”来代表这个关系的原型。
2026-04-07 13:52:36
276
原创 LangChain工具封装:Tool类设计与函数调用
我在项目中使用的自建数据集,质量一般,实体关系密度较低,如果按照传统句子级关系抽取的窗口来切分语料,会导致关系样本量不足。二是长距离依赖,RNN的梯度在长序列中容易衰减,而Transformer通过自注意力可以直接建立任意两个位置之间的联系,路径长度为O(1),所以更适合长文本。GLM:是自回归填空的架构,可以理解为BERT和GPT的融合。如果任务有明确的输入输出格式、需要模型学习某种“能力”(比如代码生成、特定格式的抽取),而且训练数据比较稳定、更新频率不高,微调的效果更好,推理也更快。
2026-04-07 13:52:28
294
原创 LangChain vs LangGraph:多Agent架构设计与协作机制
这样更可靠、更容易解析。语料切分:项目中的关系抽取任务是句子级关系抽取,传统的句子级关系抽取数据集每条样本的句子长度是几十个Token。我在项目中使用的自建数据集,质量一般,实体关系密度较低,如果按照传统句子级关系抽取的窗口来切分语料,会导致关系样本量不足。计算方法:首先利用 Embedding 模型(如 BGE 或 OpenAI-text-embedding)对某个关系类别下的所有样本句子进行向量化,然后对这些高维向量求均值(Mean Pooling),得到该类别的“质心向量”来代表这个关系的原型。
2026-04-07 13:52:26
337
原创 LLM评测工程师:如何做好模型的【质量检测员】
作为LLM领域的“关键技术担当”,最为负责设计、优化和模型训练大规模预模型训练模型,例如改进Transformer架构、融合多模态模型、实现模型压缩与加速等。从我们日常接触的NLP(例如聊天机器人)、计算机视觉(例如人脸识别),到企业端的智能推荐、金融风控,LLM技术正在悄悄重构传统行业的运作模式,也催生了大量高薪酬待遇职业方向。在当下求职就业竞争激烈的环境里,想要实现年薪百万的目标,AI技术LLM赛道,甚至比传统互联网行业更有优势,成为了很多开发者和职场人的“新出路”。
2026-04-07 13:52:23
336
原创 LLM评测体系设计:安全性、合规性与鲁棒性如何保障
作为LLM领域的“关键技术担当”,最为负责设计、优化和模型训练大规模预模型训练模型,例如改进Transformer架构、融合多模态模型、实现模型压缩与加速等。从我们日常接触的NLP(例如聊天机器人)、计算机视觉(例如人脸识别),到企业端的智能推荐、金融风控,LLM技术正在悄悄重构传统行业的运作模式,也催生了大量高薪酬待遇职业方向。在当下求职就业竞争激烈的环境里,想要实现年薪百万的目标,AI技术LLM赛道,甚至比传统互联网行业更有优势,成为了很多开发者和职场人的“新出路”。
2026-04-07 13:52:20
351
原创 从零开始学知识图谱|大模型知识库构建实战教程
2026年,大模型已经无处不在,但“幻觉”(hallucination)仍是企业落地的最大杀手:金融风控、医疗问诊、客服机器人动辄编造事实,直接导致合规风险和信任崩盘。:通过图遍历(Path)、规则(Rule)和嵌入(Embedding)推导出隐含知识,如“如果A是B的父亲,B是C的父亲,则A是C的祖父”。:知识用**三元组(h, r, t)**表示(head实体-关系-tail实体),无数三元组组成图谱。:大模型负责“抽取+推理”,图数据库负责“存储+查询”,二者结合才是王道。
2026-03-25 11:31:28
141
原创 从零开始学目标检测|YOLO 系列从入门到部署
把图像划分成网格,每个网格预测多个预设形状的“锚框”(anchor),再微调偏移量得到最终检测框。为方便大家学习 这里给大家整理了一份系统学习资料包 需要的同学 根据下图指示自取就可以。:浅层特征分辨率高(适合小目标),深层特征语义强(适合大目标)。:同一个目标可能产生多个检测框,按置信度排序,IOU>阈值的框被抑制,只保留最优一个。:损失函数直接决定收敛速度和精度,YOLOv8/v10已优化为更鲁棒的变体。对于需要系统学习 需要我们规划指导的同学 可以扫码与我们交流。:YOLOv8/v10已转向。
2026-03-25 11:21:44
72
原创 从零开始学 LoRA 微调|大模型轻量化高效微调实战
2026年,大模型从“会聊天”走向“企业私有化定制”已是标配。显存爆炸:70B模型全参微调需要8张H100,普通开发者直接劝退。成本高企:训练一次几十万Token,迭代成本失控。部署麻烦:每次微调都要保存完整权重,模型膨胀4-8倍。的核心价值正是轻量化:只训练不到0.1%的参数(低秩矩阵),效果接近全参,显存降低70-90%,训练速度提升3-5倍,支持单卡消费级GPU(甚至3090)跑通13B/70B模型。核心知识点:LoRA不是“偷懒技巧”,而是数学上最优的低秩近似。
2026-03-25 11:15:42
438
原创 从零开始学大模型应用开发|零基础搭建 AI 智能系统
为方便大家学习 这里给大家整理了一份详细的学习资料包 需要的同学 可以根据图片指示自取。:生成文案风格多样、带表情符号、长度合适,直接复制到小红书/朋友圈可用。:机器人能记住“你叫小明”“我喜欢Python”,后续对话自然衔接。:输入“公司年假多少天?:输入产品名称+目标人群+卖点,30秒生成10条营销文案。:输入问题,自动检索本地知识库再回答,杜绝幻觉。(qa_assistant.py,直接复制运行。:支持多轮对话,记住用户姓名、偏好,像真人客服。下面我们直接上手项目。记住这三点就够了,下面直接开干!
2026-03-25 11:10:47
357
原创 从零开始学 TensorFlow|工业级深度学习框架实战
2026年,TensorFlow依然是工业界首选的生产级深度学习框架。PyTorch适合研究快速迭代,而TensorFlow在大规模分布式训练、模型量化部署、跨平台Serving上拥有无可替代的优势。工业界核心价值生产就绪:静态图 + tf.function 自动优化,推理延迟比PyTorch低20-40%,支持亿级参数模型稳定运行。生态闭环:TF Serving、TFX、TensorFlow Lite、TensorFlow.js 一站式覆盖云端、边缘、Web、移动端。大模型结合。
2026-03-25 11:05:39
161
原创 从零开始学自然语言处理|NLP 核心技术入门到进阶
2026年,自然语言处理(NLP)已是AI最普适的技术:智能客服、机器翻译、情感监控、知识图谱、法律文书审核……:早期用Bag-of-Words(词袋)或TF-IDF把词变成稀疏向量。:Word2Vec用“上下文预测中心词”或“中心词预测上下文”,让“国王-男人+女人≈女王”在向量空间成立。:把文本向量喂给分类器(Naive Bayes、SVM、BERT),学习“类别标签”:判断文本正面/负面/中性,常用预训练模型微调。:从句子中抽取人名、地名、组织名等实体。:情感分析示例(正面/中性/负面)。
2026-03-25 10:59:50
406
原创 从零开始学计算机视觉|CV 基础算法与项目实战
2026年,计算机视觉(CV)已是AI落地最快的赛道:自动驾驶、安防监控、医疗影像、工业质检、AR/VR……所有“让机器看懂世界”的应用都建立在它之上。行业价值高薪敲门砖:CV工程师起薪25w+,基础算法是面试必考。场景驱动:从手机美颜到工厂缺陷检测,CV直接创造商业价值。零基础友好:不需要高深数学,只需Python + OpenCV,就能跑通工业级效果。核心应用场景:人脸识别、物体检测、图像增强、视频分析……核心知识点:CV =让计算机从像素矩阵中自动提取语义,不再靠人工规则。
2026-03-25 10:52:02
772
原创 从零开始学向量数据库|大模型 RAG 必备存储实战
大家好,我是唐宇迪,资深AI讲师与学习规划师。专注大模型RAG与向量数据库实战教学,过去三年我帮超过4000名开发者从“向量库是什么”到“独立搭建企业级RAG系统”。今天这篇长文,,从底层原理到代码全流程、再到生产优化,一条龙给你讲透可直接复制的向量数据库+RAG专业指南。
2026-03-25 10:48:07
325
原创 从零开始学机器学习|经典算法 + 项目实战全攻略
2026年,机器学习仍是AI的“地基”。推荐系统、图像识别、医疗辅助诊断、金融风控……所有AI应用都建立在它之上。行业价值高薪敲门砖:算法工程师起薪20w+,懂经典算法是面试必考。思维升级:学会“让数据自己说话”,职场决策从凭感觉变成数据驱动。零基础友好:不需要高数,只需线性代数+概率统计入门 + Python基础。核心知识点:机器学习 =让机器从数据中自动找到规律,不再需要人工手写规则。监督学习“有答案学”,无监督学习“自己找规律”。
2026-03-25 10:41:15
444
原创 从零开始学 Prompt 工程|大模型高效指令优化指南
2026年,大模型已经不是“会聊天”的玩具,而是职场人的第二大脑。但99%的人还在用“写一篇……”这种幼儿园级指令,结果输出要么跑题、要么泛泛、要么格式乱七八糟。Prompt工程的真实价值效率爆炸:同样的任务,优化后的Prompt能把耗时从30分钟压到3分钟。可控性:输出格式、风格、深度、逻辑全部由你掌控,零废话。可复用性:一次写好,终身使用,跨模型(GPT-4o、Claude 3.5 Sonnet、Qwen2.5-Max)零修改。职场降维打击。
2026-03-25 10:32:48
404
原创 从零开始学大模型部署|本地 + 云端私有化部署实操
2025-2026年,企业上大模型最核心的痛点不是性能,而是数据不出域。公开API(如OpenAI、国内某大厂)默认把你的Prompt、Context、输出全部记录,用于持续训练——这在金融、医疗、政务场景直接违法。敏感数据必须在可控环境内处理,审计日志需留存180天以上。私有化部署的价值:数据主权:所有权重、上下文、日志100%在你机房/私有云。成本可控:单卡A100/H100年化成本可压至公开API的1/3~1/5。定制化:可无缝对接企业知识库(RAG)、内部OA、ERP。高可用。
2026-03-25 10:28:19
561
原创 从零开始学深度学习|AI 核心算法零基础入门
2026 年,深度学习已渗透到我们生活的每一个角落:手机里的照片美颜、电商的智能推荐、医院的影像诊断、自动驾驶的实时决策……它不是科幻,而是每天产生数亿次商业价值的“生产力引擎”。为什么现在学深度学习?价值一:就业与转行红利。算法工程师、AIGC 开发、AI 产品经理岗位需求持续增长,零基础入门者 6-12 个月即可上手企业项目,年薪 20-40 万已成常态。价值二:解决真实痛点。传统规则编程遇到“模糊问题”(人脸识别、情感分析)就失效,而深度学习用数据“自动学习规则”,准确率轻松突破 95%。
2026-03-24 15:23:07
34
原创 从零开始学 PyTorch|深度学习框架实战完整版教程
2026 年,深度学习已在企业级落地率超过 90%,PyTorch 市场份额已达 78%(Hugging Face + GitHub 数据)。为什么 PyTorch 成为算法工程师的首选?因为它真正实现了“研究即生产”:动态图让调试像 Python 一样自然,torch.compile 让性能媲美静态框架,生态(torchvision、torchaudio、torchtext、Hugging Face)覆盖全场景。企业真实价值与 ROI图像/视频。
2026-03-24 15:12:36
186
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅