- 博客(673)
- 收藏
- 关注
原创 【图像处理基石】基于暗光图像恢复颜色有哪些难点?
暗光图像颜色恢复的核心难点在于“信息缺失下的噪声、颜色、细节协同优化”。现有算法通过传统物理模型与深度学习的结合,在中等暗光场景下实现了较好的颜色恢复,但在极端条件、泛化性、自然度等方面仍有不足。未来需从“物理约束+数据驱动”融合、轻量化模型设计、鲁棒评价指标构建等方向突破,实现更真实、高效的颜色恢复。
2025-07-28 17:44:41
1387
1
原创 【图像处理基石】如何入门ISP算法开发?
入门ISP(Image Signal Processor,图像信号处理)算法开发需要结合理论学习、实践操作和工程实现能力。,从简单模块入手,逐步构建完整的ISP流水线,并在实际项目中优化和验证算法效果。通过以上步骤,你可以逐步掌握ISP算法开发的核心技能。
2025-05-06 22:54:02
1314
1
原创 今天全网爆火的Manus到底是什么?Manus的功能与意义深度解析
Manus的爆火既反映了市场对AI Agent的期待,也暴露了技术炒作与真实能力之间的落差。对普通人而言,它是潜在的效率工具;对从业者,则是技术迭代与商业化的试验场。其长远意义在于推动AI从“辅助”走向“执行”,但需警惕过度营销对行业信誉的消耗。,而非仅提供建议或答案。该产品因宣称“知行合一”的能力(如自动生成PPT、分析股票、筛选简历等)迅速引发行业热议,甚至导致官网因流量激增崩溃,邀请码被炒至数万元。注册,但官方强调未开放付费渠道,二手平台的邀请码多为虚假信息。目前Manus处于内测阶段,需。
2025-03-06 20:57:21
5240
1
原创 2025年了,AI算法工程师的校招主要考察哪些内容?
结合大模型时代的技术趋势与计算机视觉(CV)算法岗的校招要求,校招考察要点呈现以下核心特征:编程与算法基础深度学习与CV专业知识项目与实战经验大模型核心技术前沿技术与创新思维工程与落地能力岗位类型差异行业招聘趋势技术准备简历与面试优化行业动态跟踪大模型时代下,CV算法岗校招呈现**“基础能力强化+技术边界扩展”**的双重特征:
2025-03-05 19:15:49
1814
原创 DeepSeek-R1技术革命:用强化学习重塑大语言模型的推理能力
DeepSeek-R1的成功验证了算法创新比算力堆砌更重要的技术哲学。通过GRPO算法与规则奖励系统的精妙设计,团队用1%的成本实现了顶尖性能,这为开源社区提供了可复现的技术范本。随着更多研究者加入这场推理能力的进化竞赛,我们正在见证AGI发展路径的根本性转向——从依赖人类标注的被动学习,走向自主探索的智能涌现时代。
2025-02-09 21:16:50
3487
1
原创 【AI黑话日日新】什么是具身世界模型?
随着大语言模型能力趋于成熟,人工智能正在从纯虚拟的文本生成迈向真实物理世界。传统AI仅能被动响应指令,而具身世界模型赋予智能体理解物理规律、预判环境变化、自主规划躯体动作的能力,让机器人、自动驾驶终端拥有类似人类的“脑补预演”思维。本文从基础定义、核心差异、底层架构、前沿技术、落地场景及行业痛点六大维度,系统性拆解具身世界模型,帮助开发者快速建立完整知识体系。关键词:具身智能;世界模型;物理仿真;机器人;通用人工智能现阶段千亿级大模型擅长语言理解、文案创作、逻辑推理,但存在天然短板:脱离物理现实。
2026-03-27 10:30:39
2
原创 【深度学习新浪潮】聚类算法前沿探秘:2025–2026 最新研发进展与技术落地解析
聚类作为无监督学习的核心基石,广泛应用于数据分析、计算机视觉、自然语言处理、智能运维等场景。传统K-Means、DBSCAN、FCM等经典算法,长期面临高维灾难、异构数据适配差、算力瓶颈、隐私泄露、簇结构识别弱等痛点。近两年随着大模型、量子计算、联邦学习、流形优化技术的迭代革新,聚类算法迎来全方位升级。
2026-03-27 09:17:53
7
原创 【AI黑话日日新】什么是token?
在AI大模型开发、API调用与成本核算中,Token(词元)是绕不开的核心概念。国家数据局已将其中文定名统一为词元,本文从定义、原理、换算、实战优化四个维度,用工程师视角讲透Token,帮你避开计费坑、提升模型效率。Token是大模型时代的基础计量与计算单元,理解它是做好AI开发、成本控制与性能优化的第一步。它≠汉字/单词,是语义子词单元输入输出都算Token,直接关联成本与性能优化Token长度,等于优化钱、速度与效果。
2026-03-26 22:12:00
86
原创 【深度学习新浪潮】摩尔定律对科技发展有什么核心影响?
摩尔定律的真正意义不在于数字翻倍,而在于它定义了半个世纪科技进步的速度与预期让计算能力从稀缺变普惠催生了PC、互联网、移动互联网、AI三次大浪潮塑造了现代科技产业的研发、竞争与商业模式即使摩尔定律放缓,它留下的持续迭代、追求效率、指数级增长的思维,仍在深刻影响今天的科技发展。
2026-03-26 22:07:34
138
原创 【AI黑话日日新】什么是多智能体协同?
多智能体协同是人工智能从单体智能走向群体智能的重要标志,它打破了单一模型的能力天花板,让AI系统能够适配更复杂、更多元、更规模化的现实任务。从大模型应用到机器人集群,从智慧城市到科学研究,多智能体协同正在重塑AI技术的落地形态。未来,随着通信机制、决策算法、协调策略的持续优化,多智能体系统将具备更强的可靠性与实用性,成为下一代AI技术的核心支撑。对于开发者而言,理解多智能体协同的底层逻辑,不仅能更好地应用现有协作框架,也能在复杂系统设计中找到更高效的技术路径。
2026-03-24 19:56:47
146
原创 【深度学习新浪潮】多Agent已经退潮了么?2026最新研究与产业全景调研
多Agent没有退潮,只是褪去泡沫,走向硬核。2026年是多Agent从Demo走向规模化商用的元年,技术聚焦协同效率、可控性与标准化,将成为突破单体LLM天花板的关键路径。
2026-03-24 19:54:11
114
原创 【AI黑话日日新】什么是大模型的能耗密度?
大模型能耗密度,指大模型在训练或推理过程中,单位算力、单位参数、单位体积或单位时间内,所消耗的电能(能量)与对应基准维度的比值,核心是衡量“单位承载量下的能耗效率”,是评价大模型能效的核心精细化指标,而非单一的总功耗数值。通俗来讲:能耗密度越高,代表实现同等算力、处理同等参数、完成同等任务时,消耗的电能越多,能效越低;反之能耗密度越低,模型能效越优,算力资源利用越合理。大模型能耗密度不是一个抽象的技术指标,而是贯穿模型设计、训练、推理、部署全流程的核心标尺。
2026-03-23 23:48:06
152
原创 【深度学习新浪潮】算力上太空:NVIDIA Space-1 Vera Rubin Module 深度技术解析
NVIDIA Space-1 Vera Rubin Module 不只是一款芯片模组,它是天地一体化 AI 的基础设施底座。它用成熟的 GPU 架构 + 航天级加固,把地面 AI 生态直接平移到太空。下一个 AI 创新战场,不在云端,而在轨道。在轨 LLM星上多模态实时处理卫星自主组网与分布式推理太空算力成为云计算的一级节点参考资料NVIDIA 官方博客:NVIDIA 推出太空计算,将 AI 送入太空轨道GTC 2026 黄仁勋主题演讲。
2026-03-23 23:42:55
725
原创 【大模型技术研究】大模型推理服务:怎么快速判断是流式输出还是非流式输出?(实战判断法)
打字机效果、实时出字 = 流式Loading很久、一次性出结果 = 非流式请求带 stream:true + 返回 text/event-stream = 流式现代服务基本都支持双模式,不是只能一种。
2026-03-23 11:03:55
231
原创 【深度学习新浪潮】大模型推理服务:流式输出 vs 非流式输出,一篇讲透
模型生成第一个Token就立刻返回,像“打字机”一样,边生成边推送给客户端。技术实现:SSE、WebSocket、gRPC Streaming直观感受:首字出来极快,不用干等低首包延迟(TTFT)、交互体验强大模型推理服务不是只有流式输出,而是流式 + 非流式双模式并存。流式 = 体验优先,低延迟、交互强;非流式 = 效率优先,简单、稳定、吞吐量高。C端产品偏向流式,后端批量任务偏向非流式。。对于LLM应用开发者来说,理解这两种模式,才能在体验、性能、成本之间做出最合适的架构选择。
2026-03-23 11:00:16
35
原创 【深度学习新浪潮】深挖AI Arbitration:技术原理、研发进展与实战落地|2026最新解析
任务适配:为不同类型的任务匹配最优的AI模型;资源优化:在有限算力下最大化任务处理效率;容错兜底:当首选模型故障时自动切换备用模型;成本控制:优先选择性价比高的模型/算力。AI Arbitration的核心是为任务匹配最优的模型/算力,平衡效果、成本、速度三大目标;技术演进路径:从规则驱动→模型驱动→自适应智能仲裁;入门落地可先实现“特征提取+多维度评分”的基础仲裁逻辑,再逐步引入机器学习优化。
2026-03-22 13:19:52
137
原创 【AI黑话日日新】什么是算力调度?
算力调度 = 在有限资源下,把任务智能分配到最合适的计算节点,实现效率、成本、稳定性最优。更完整的定义:算力调度是对 CPU、GPU、内存、网络、存储等异构资源进行统一抽象、感知、决策、分配、监控与自愈的全生命周期管理,是分布式系统的“智能管家”。算力调度不是玄学,它是资源管理 + 算法 + 工程实践的结合。先懂概念 → 再玩工具 → 再写策略 → 再优化算法从单机到集群,从CPU到GPU,从离线到在线,循序渐进未来AI与算力网络时代,算力调度是性价比最高、最稀缺、最长期吃香的技术方向之一。
2026-03-22 13:12:04
91
原创 【深度学习新浪潮】Token经济学深度解析:从AI“新智元”梗到产业核心,研究成果+标杆产品全拆解
在正式深入研究和产品分析前,必须先破除概念误区:行业内常说的Token经济学,并非单一概念,而是分为AI词元Token经济学和Web3通证Token经济学两大核心分支,二者底层逻辑、应用场景天差地别,也是大众最容易混淆的点。Token是AI时代的新大宗商品:黄仁勋将Token类比为工业时代的电力、石油,是AI时代的核心生产资料与基础计价单位,不再是单纯的技术单元,而是具备标准化、可计量、可交易、可分层的数字商品,其价值由算力消耗、推理效率、实际应用价值共同决定,而非虚拟炒作。Token五层定价模型。
2026-03-21 23:47:08
509
原创 【AI黑话日日新】什么是token?
Token是大语言模型理解、处理、生成人类语言的最小语义单元。大模型本质是做矩阵运算,不直接认识汉字、英文、符号,必须把文字拆成一个个标准化的小片段,再转成数字向量——这个小片段,就是Token。它不是字、不是词,是兼顾语义与计算效率的亚词单元。Token没有那么玄乎,它就是大模型的“文字原子”人类用“字/词”说话;AI用“Token”思考与写作。下次再听到“新智元”的玩笑,你可以笑着说:别闹,Token就是大模型的语言积木,我早就懂啦!
2026-03-21 23:41:57
206
原创 【深度学习新浪潮】AI原生产品深度解析:核心定义、设计逻辑与工程化开发实战
当前行业内大量“AI+传统产品”的缝合式应用,混淆了AI增强与AI原生的核心边界,导致很多项目落地后成本高、体验差、无核心价值。本文从技术视角明确AI原生产品的本质定义,通过对比表格厘清与AI增强产品的核心差异,拆解AI原生产品的设计原则、标准工程化架构,附上可直接运行的RAG核心代码,同时梳理开发全流程的避坑要点,为研发团队提供从0到1落地真AI原生产品的实战方案,拒绝技术噱头,聚焦可落地的工程化逻辑。
2026-03-20 22:23:37
43
原创 【AI黑话日日新】什么是token吞吐量?
Token吞吐量(Token Throughput)是指LLM推理系统在单位时间内处理+生成的Token总数,核心单位为每秒Token数(tok/s 或 TPS)。输入Token:用户提问、上下文等模型需要“读取”的内容;输出Token:模型生成的回答内容;吞吐量=(总输入Token数 + 总输出Token数)/ 总耗时(秒)。Token吞吐量是LLM部署的核心指标,核心单位为tok/s,生产环境优先关注「系统总吞吐量」;测试分为单请求(基础)和并发请求(核心),并发测试更贴近生产场景;
2026-03-20 22:06:10
122
原创 【深度学习新浪潮】2026年春晚机器人全解:四家主力企业与“大小脑”部署架构
2026年央视马年春晚被称为“”,共有(宇树科技、银河通用、魔法原子、松延动力)与一家特色企业(越疆机器人)的机器人深度参与表演,形成“能打、能干、能跳、能演”的全场景覆盖。这些机器人均采用,但根据场景需求,在部署位置与功能分配上各有侧重,并非简单将“大脑”全部放在云端。
2026-03-19 13:59:35
126
原创 【AI黑话日日新】什么是具身智能中的“大脑”和“小脑”?
在具身智能系统中,“大脑”与“小脑”是借鉴生物神经系统的,分别对应与两大核心功能,共同实现“感知-认知-决策-执行”的完整闭环。
2026-03-19 12:37:26
160
原创 【深度学习新浪潮】如何入门openclaw并确认其安全性满足要求?
OpenClaw 是一个可连接大模型、执行系统命令与跨平台操作的 AI 代理框架,入门门槛低但。下面给出完整入门路径 + 可落地的安全验证与加固方案,确保你能安全上手。
2026-03-18 18:18:06
127
原创 【AI黑话日日新】什么是HBM?
本质:DRAM的3D堆叠封装方案,通过TSV实现多层DRAM垂直互联,与计算芯片(GPU/CPU/加速器)做2.5D/3D近距集成。核心架构3D堆叠:4/8/12/16层DRAM裸片垂直叠加,底层配Base Die(控制层)。TSV+微凸点:数千个纳米级通孔实现层间高速互联,位宽可达1024bit(HBM3)/2048bit(HBM4)。2.5D封装:通过硅中介层(Silicon Interposer)与GPU/CPU紧邻,大幅缩短数据路径。关键性能(2026主流)带宽。
2026-03-18 18:13:18
158
原创 【深度学习新浪潮】GTC 2026 老黄演讲全解析:AI进入推理工业化时代,万亿Token工厂与全栈技术蓝图
AI的核心矛盾已变:从“如何训练更好的模型”转向“如何低成本、高效率地推理”。推理成为核心负载:训练是一次性投入,推理是持续消耗,未来90%算力将用于推理。Token成为新大宗商品:数据中心=Token工厂,Token成本与吞吐量直接决定企业竞争力。产业判断:2027年AI基础设施需求将突破1万亿美元,推理与智能体是最大引擎。老黄GTC 2026演讲,本质是一份AI工业化时代的蓝图算力重心转移:训练 → 推理产品形态变化:芯片 → AI工厂全栈系统软件范式革命。
2026-03-17 19:54:54
155
原创 【AI黑话日日新】什么是RAG?
RAG(Retrieval-Augmented Generation)即检索增强生成,其核心思想是打破大模型“封闭推理”的局限,通过外部知识库检索获取与用户查询相关的真实信息,将检索结果作为上下文融入生成流程,让模型基于“真实数据”生成回答。简单来说,传统LLM是“凭记忆回答”,而RAG是“查资料再回答”。RAG是当前解决LLM私有知识落地的“最优基础方案”:低成本、易部署、效果可控,适配90%的通用与专业知识问答场景。没有“万能技术方案”
2026-03-17 19:50:00
33
原创 【深度学习新浪潮】Token压缩技术2025-2026最新研究进展总览
2025-2026年token压缩技术已从单一模态走向多模态融合,从数量压缩走向质量提升。V²Drop、VidCom²等视觉压缩技术解决了位置偏置与部署难题;COMI、ConceptMoE等文本压缩技术实现了高压缩率下的性能反超;多模态综述为系统研究提供了完整框架。这些技术将成为大模型轻量化部署长上下文处理多模态理解的核心支撑,推动AI从实验室走向大规模产业应用。
2026-03-16 16:41:53
899
原创 【AI黑话日日新】什么是边缘计算?
边缘计算(Edge Computing)是一种分布式计算范式,核心是将数据处理、存储与应用部署从集中式云端数据中心,下沉到靠近数据源或终端设备的边缘节点(如摄像头、传感器、边缘网关、基站、边缘服务器等),实现“数据在哪里产生,就在哪里处理它构建“端-边-云终端层:传感器、IoT设备、智能手机等数据生产者边缘层:就近处理数据,执行实时分析或过滤云端:负责全局大规模数据存储、复杂计算与模型训练边缘计算是硅基智能体的**“本地化神经末梢”,硅基智能体是边缘计算的“自主决策大脑”。
2026-03-16 16:38:47
141
原创 【深度学习新浪潮】Claude悄悄更新了Skills生成器
这次Skill-Creator更新是Claude Skills生态的里程碑式升级,标志着AI技能开发正式进入工程化时代。通过将软件工程的严谨性引入AI领域,Anthropic解决了长期存在的技能不可信问题,为构建可靠、高效的AI Agent工作流奠定了坚实基础。建议所有Claude用户尽快体验并升级,让你的AI助手真正实现技能满点、可靠可用。
2026-03-15 16:12:04
35
原创 【AI黑话日日新】什么是近内存计算?
传统冯·诺依曼架构中,处理器与内存物理分离,数据必须在两者之间频繁搬运。研究表明,两个浮点数在CPU和主存间传输的能耗比一次浮点数运算大两个数量级,大量时间和能源浪费在数据传输上,形成"内存墙"——数据搬运成为性能提升的最大障碍。将计算单元紧邻内存模块(而非嵌入内存单元内部)建立高带宽专用通道连接计算与存储实现"计算靠近数据"而非"数据搬运到计算"的模式转变。
2026-03-15 16:09:38
144
原创 【复杂网络分析】复杂网络理论和技术跟OpenClaw类智能体平台的技术结合点分析
复杂网络理论与OpenClaw智能体平台的结合,是系统科学与人工智能的交叉创新。在2026年多智能体爆发的时代,这种结合不仅必要,更是构建高效、稳定、可扩展智能体生态的核心路径。通过将复杂网络的拓扑智慧注入OpenClaw的执行引擎,我们可以解锁AI的更大潜能,让智能体从“单一任务执行者”升级为“复杂系统协作者”,最终实现“能思考、能协作、能执行”的全栈智能体愿景。
2026-03-14 11:14:48
273
原创 【AI黑话日日新】什么是RAG?
RAG(Retrieval-Augmented Generation,检索增强生成)是一种先检索外部知识、再生成答案的混合AI架构,核心是用外部知识库弥补大模型的知识截止与幻觉缺陷。RAG解决“知道什么”,OpenClaw解决“能做什么2026年的AI智能体时代,二者不是替代关系,而是深度融合、缺一不可的黄金组合。
2026-03-14 11:06:56
28
原创 【AI黑话日日新】什么是通用agent?
通用Agent(通用人工智能体)是指能像人类一样广泛适应不同任务与环境,具备自主学习、推理、规划和决策能力的智能系统,核心目标是逼近通用人工智能(AGI)能力。维度核心特征具体表现任务泛化性跨领域无差别适配无需针对每项任务重新训练,即可解决数学、编程、创意写作、图像分析等完全不同领域的问题环境适应性自主感知与动态调整能在数字与物理环境中灵活应对变化,处理工具调用错误、网络波动等异常情况,无需人工干预自主进化性持续学习与能力扩展通过经验积累自动优化策略,无需开发者介入即可掌握新工具或任务流程。
2026-03-13 23:39:44
41
原创 【深度学习新浪潮】怎么现在好像听不到人们讨论MCP了?
MCP讨论度下降,本质是AI行业从"概念狂欢"到"工程落地"的理性回归。它解决了标准化工具调用的问题,但因高昂的token成本和复杂的工程实现,难以成为通用方案。行业转向更简单高效的替代方案,而MCP则回归其基础设施定位,默默服务于特定场景,不再成为媒体和社交平台的热议焦点。
2026-03-13 23:36:42
176
原创 【深度学习新浪潮】为什么OpenClaw这么吃token?
OpenClaw 高 Token 消耗的核心是 Agent 多轮思考、工具调用上下文累积,以及平台内置的模板/多模型协同开销;PD 分离在 OpenClaw 中可针对性解决长上下文 Prefill 阻塞、KV Cache 复用低效问题,是提升其推理效率的核心优化手段,主要落地在长上下文处理与生成阶段解耦、KV Cache 集中管理、动态资源调度三个方向。
2026-03-12 14:47:45
213
原创 【AI黑话日日新】什么是PD分离?
PD分离是大模型上线的标准架构:它解决了LLM推理最本质的异构负载矛盾它是高并发、低延迟、低成本三者同时满足的唯一路径它是超长上下文、多会话、私有化部署的基础半分离架构(Semi-PD)存算分离 + PD分离融合专用硬件(LPU)针对Decode优化只要你在做大模型服务、推理引擎、GPU集群调度,PD分离就是必须掌握的核心技术。结合上面的代码和Repo,动手实操就能快速入门,落地到实际项目中。
2026-03-12 14:43:54
201
原创 【AI黑话日日新】什么是AI TRiSM?
OpenClaw的安全危机是AI智能体时代的必经阵痛。传统边界安全失效,插件生态、高权限、自主决策带来全新风险,只有用AI TRiSM这套原生框架,才能从根上构建可信、安全、合规、可管的AI系统。架构师必须把AI TRiSM纳入方案设计算法工程师必须具备可信、隐私、鲁棒性意识安全工程师必须转向AI原生安全未来两年,AI TRiSM会从前沿概念变成行业标配。越早布局,越能在AI规模化浪潮中掌握主动权。
2026-03-11 17:20:56
158
原创 【深度学习新浪潮】大模型赋能故障检测:从AIOps到自主运维的技术演进(2023-2025)
大模型正在重新定义故障检测的技术边界。从早期的提示工程探索,到当前的Multi-Agent协同系统,我们见证了从"模式匹配"到"认知推理"的质变。LLM不是银弹,在实时性要求极高、容错率极低的生产环境中,人机协同仍是最佳实践。对于希望入局的开发者,建议从日志异常检测和根因报告生成这两个相对成熟的场景切入,逐步探索工具增强和自动化修复。未来三年,随着多模态基础模型和Agentic AI的成熟,我们有望迎来真正"自愈合"的云原生系统。
2026-03-11 17:10:58
86
原创 【python与生活】怎么用kimi做ppt?
最推荐直接使用 https://www.kimi.com/slides,这是 Kimi 专门为 PPT 制作优化的功能,可以一站式生成专业、美观、可直接用于正式场合汇报的演示文稿。
2026-03-10 14:06:55
346
机器学习与模式识别领域的PRML习题解析手册
2025-03-10
在TensorFlow中将预训练好的模型转换成tflite格式模型的python代码实现
2025-03-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅