自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(66)
  • 收藏
  • 关注

原创 什么是Agent Skills,它和Tool以及MCP有什么区别?

在大模型应用中,其核心能力其实只有两个,一个是模型天生的能力——内容生成;但是有了MCP之后,你们所有的企业和部门只需要按照相同的规则,设计你们的职能工具,这时我就可以使用一个统一的方式来使用你们的工具,就类似于USB接口,不同手机厂商的充电接口都不一样,那我就统一设计成USB接口,这样所有的厂商都可以直接使用,减少了不同系统之间沟通的复杂性。总之,skills不是一个新的技术,也不是一个高大上的算法,它的本质是代码模块化的扩展,把一项通用的能力,按照某个标准进行封装开放使用,这样就解决了重复利用的问题。

2026-03-15 20:27:16 352

原创 面向移动智能体的知识驱动推理:概念、方法与研究方向

南洋理工大学团队(2026)研究移动智能体在资源受限环境下的高效推理问题,提出基于DIKW模型的知识分类体系,将决策资产分为数据、信息、知识和智慧四个层级。核心发现揭示了知识暴露的非单调性——适量知识能显著优化推理效率,而过多知识反而增加计算负担。在无人机基站案例中,搭载知识包的轻量级模型(Qwen-3B)实现了100%任务成功率,推理效率超越云端方案。研究表明,通过知识复用可有效解决移动智能体面临的SWAP-C约束和网络不稳定挑战。论文链接:https://arxiv.org/abs/2603.05831

2026-03-10 11:50:18 197

原创 (AAAI 2025) 为什么很多频域 FFN 都太慢?Efficient Discriminative Frequency FFN 给出了答案

本文提出了一种高效的视觉状态空间模型(EVSSM)用于图像去模糊。该模型采用U-Net架构,核心创新包括:1) EVS机制通过几何变换实现多方向扫描而不增加计算量;2) 在SSM参数生成中引入1D深度卷积增强局部感受野;3) 提出EDFFN模块,将频域筛选移至FFN末端以降低计算成本。实验表明,该方法在保持性能的同时显著减少了显存占用和运行时间,特别适合高分辨率图像恢复任务。

2026-03-05 09:56:30 426

原创 SimpleMem:基于语义无损压缩的三阶段 Agent 终身记忆框架

本工作提出 SimpleMem,一个基于语义结构化压缩的终身记忆系统,通过“压缩—合成—规划”三阶段机制,在固定上下文预算下显著提升 LLM Agent 的长期交互能力与检索效率。最后通过 Intent-Aware Retrieval Planning,根据查询意图动态规划检索深度,并在语义、词法与符号多视角索引中并行检索,构建高密度上下文。SimpleMem 证明了:相比构建复杂图结构记忆,通过语义压缩驱动的信息密度优化,才是突破 Agent 长期记忆 token 瓶颈的关键路径。

2026-02-27 12:47:41 380

原创 E²-LLM:基于链式推理的脑电-语言对齐多模态大模型,实现可解释情感分析

E²-LLM 首次证明:通过 Chain-of-Thought 指令对齐,大模型可以将脑电时空动态转化为语义化情感理解,实现从“神经信号解码”到“心理状态推理”的跨模态认知建模新范式。本工作提出 E²-LLM,一个结合 EEG 编码器与 Qwen-based 多模态大语言模型的神经信号-情感推理框架,实现从脑电信号到自然语言情感理解的可解释分析能力。构建五类 EEG-情感理解任务(描述、比较、选择、匹配、情景推理),形成“信号-语义-推理”闭环分析机制。

2026-02-27 12:46:03 70

原创 自我进化Agent综述:通往超级智能的进化之路

【150字摘要】 最新研究提出"自进化智能体"框架,突破传统LLM参数固定的局限,通过动态优化模型、工具和架构实现持续进化。论文系统梳理了三维进化路径(What/When/How):模型参数/记忆/工具的在线更新(What),测试时实时学习与测试间经验整合(When),以及基于奖励/模仿/群体机制的进化驱动(How)。应用显示医疗诊断准确率可周提升12%,但存在灾难性遗忘、伦理对齐等挑战。该研究为构建人类级AI提供了模块化进化蓝图,标志着从静态模型向自主成长型智能体的范式转变。

2025-09-04 14:38:15 977

原创 大语言模型后门威胁综述

LLMs后门攻击研究综述:西安交通大学团队全面分析了与传统深度学习后门攻击的差异,系统梳理了LLMs各生命周期的攻击手段(数据操纵、模型注入、提示诱导等)及对应防御策略(数据检测、模型修剪、黑箱检测等)。研究指出LLMs因规模复杂性、动态学习等特点使攻击更隐蔽,提出未来需改进触发器设计、增强模型可解释性、完善评估标准等方向。该研究为LLMs安全领域提供了系统性的攻防框架和前瞻建议。

2025-08-22 13:25:00 531

原创 一文搞懂大语言模型如何进化为多模态大模型?

大语言模型向多模态扩展的关键挑战在于将不同模态(文本、图像、音频等)统一表示为Token序列。文本天然是离散Token序列,而图像需分割为视觉Token,音频需编码为听觉Token。核心解决方案是:1)通过特定编码器将各模态转换为统一Token;2)设计适配多维结构的位置编码;3)利用注意力机制建模跨模态关联。这种统一Token化方法使Transformer架构能处理多模态数据,实现类似人类的综合认知能力。

2025-08-21 20:59:34 1063

原创 一文搞懂多模态大模型:视觉-语言模型(VLM)

视觉-语言模型(VLM)通过统一架构实现跨模态理解,将连续的视觉像素与离散的语言符号转换为token序列,在Transformer中进行联合建模。GPT-4V、LLaVA、Qwen2.5-VL等第三代VLM采用生成式架构,支持图像理解与语言生成,核心技术包括自适应视觉token、统一注意力机制、多阶段训练策略和多步推理能力。这些突破使AI能像人类一样实现视觉内容与语言描述的语义对应,为多模态交互提供技术基础。

2025-08-21 20:58:13 1127

原创 一文搞懂大模型的知识蒸馏(Knowledge Distillation)

知识蒸馏通过让大模型(教师)输出包含多种可能性的"软概率分布",而非仅提供标准答案,将复杂模型的深度理解传递给小模型(学生)。模型温度参数是关键:高温使教师模型更"谦虚",展示各种选项的概率分布,包含语言细微差别;低温则仅输出最自信的答案。训练分两阶段:先培养强大的教师模型,再让学生模仿教师的概率分布,从而学习思考过程而非简单结果。这种方法使小模型既能掌握基础知识,又能理解语境中的微妙差异,实现"大智慧"的迁移。

2025-08-21 20:56:38 833

原创 CVPR25:特征融合消除CLIP类间混淆

本图展示了 CLIP 在零样本学习(ZSL)任务中类别间混淆问题的示意图以及 Logits DeConfusion 方法的解决方案。图(a) 显示了 CLIP 原始 logits 中的类别间混淆现象,即不同类别的预测值难以区分,导致分类精度下降。图(b) 展示了经过 Logits DeConfusion 方法处理后的 logits,类别间混淆得到了显著缓解,分类边界更加清晰。图(c) 是 Logits DeConfusion 方法的整体架构示意图,展示了如何通过建模和消除类别间混淆来改善分类性能。

2025-08-21 10:24:52 380

原创 杀疯了!时间序列预测全面汇总!!

【时间序列智能分析研究进展】2025年顶级会议涌现多篇创新性研究:1)ACL2025提出的TISER框架通过时间线构建与迭代反思显著提升语言模型的时间推理能力;2)ICML2025的LSCD方法结合Lomb-Scargle算法与扩散模型,实现不规律采样时间序列的高精度插值;3)IJCAI2025的CASA机制基于CNN自编码器,有效优化多变量长期预测的时空效率;4)AAAI2025的TimeCMA框架通过跨模态对齐整合LLM与时序数据,提升预测性能;5)WWW2025的MATE模型创新性地解耦多模态时序信号

2025-08-20 11:45:35 1259

原创 LoRA可以让LLM 具备多模态能力

多模态大模型发展路径解析:从LLM到视觉语言模型的技术演进 本文系统梳理了构建视觉语言模型(VLMs)的两大技术路线。原生多模态模型(NMMs)如Chameleon采用统一标记空间,但面临训练复杂度高的挑战。更主流的方案是在预训练LLM基础上融入视觉模块,典型代表LLaVA通过视觉编码器+投影矩阵的方式实现图像理解。最新研究VoRA创新性采用LoRA适配器,仅微调视觉参数而不干扰LLM原有知识,通过知识蒸馏显著提升训练效率。文章对比分析了不同架构的优劣,指出多模态模型正向着解耦参数、支持灵活扩展的方向发展。

2025-08-20 11:41:29 543

原创 道德的阶梯:大语言模型在复杂道德困境中的价值权衡

《伦理阶梯:通过多步归纳探讨LLM在复杂道德困境中的价值选择》提出MMDs框架,首次系统评估大语言模型(LLMs)在逐步升级伦理挑战中的动态决策。研究构建了3,302个五阶段道德困境样本,发现:1)模型保持"关怀>公平>神圣"的价值顺序,但偏好强度随困境加深动态变化;2)不同价值维度的稳定性存在显著差异;3)模型决策呈现情境依赖性,缺乏稳定内在价值体系。该研究为LLM价值对齐提供了新评估工具,但也指出当前框架在文化普适性和非线性情境模拟方面的局限,为未来研究指明了方向。

2025-06-21 16:50:24 1121

原创 ACL 2025 Findings | 无监督概念发掘,提高文本解释的可理解性

本文介绍ACL2025录用论文《Enhancing the Comprehensibility of Text Explanations via Unsupervised Concept Discovery》,提出一种新型无监督概念发现方法ECO-Concept。该方法通过竞争注意力机制自动提取语义概念,并利用大型语言模型评估概念可理解性,实现训练过程的实时优化。实验表明,ECO-Concept在虚假新闻检测等任务中不仅能保持模型性能,还显著提升了生成概念的可解释性。该研究为构建兼具高性能和人类可理解性的A

2025-06-21 16:48:53 1176

原创 CVPR 2025 | 先结构后细节,Token融合实现免微调DiT加速

【摘要】本文介绍一篇被CVPR2025录用的DiT模型加速论文《Attend to Not Attended》,提出"先结构-后细节"的token合并方案。研究发现扩散模型中存在时序性特征冗余,早期为弱结构低频token,后期为弱细节高频token。作者设计SSM和IDM模块分别进行结构/细节裁剪,配合动态压缩率调整(CRA)和文本引导(PTR)机制,在SD3Medium模型上实现1.3-1.5倍加速,较现有方法更好地保持生成质量。实验证明该方法在不同模型、采样器等条件下具有良好泛化性。

2025-06-21 16:45:43 1311

原创 LLM压缩技术全解析:让 AI 更 “瘦” 更快更智能

当下大型语言模型(LLMs)和复杂深度学习系统展现出了令人惊叹的能力。它们能够编写代码、生成精美图像,还能理解细微的语言差别。然而,这些强大的功能背后,是模型规模不断膨胀带来的难题。当前最先进的模型参数可达数十亿甚至数万亿,这对计算资源、能源消耗和存储都提出了极高要求。模型压缩与优化技术应运而生,成为解决这些问题的关键,它致力于在不损害模型智能的前提下缩小模型规模,为人工智能的广泛应用开辟新道路。

2025-05-08 09:00:47 938

原创 Agentic RAG:构建能理解、决策和行动的人工智能

例如,当用户发出 “安排明天下午2点与Alex的会议” 的指令时,个人助理能够理解任务意图,提取关键信息,并直接与日历工具集成,将会议安排添加到用户的日程中,实现从自然语言指令到实际行动的无缝转换。再如,当用户询问 “我明天的日程安排是什么”,个人助理能够快速从任务和事件管理工具中获取结构化信息,并以清晰明了的方式呈现给用户,帮助用户高效规划时间,提升工作和生活的效率。负责对用户输入的查询进行分类,准确判断其所属类型,如问题、任务、反馈等,并将查询路由至相应的处理模块,确保后续处理流程的高效性和准确性。

2025-05-05 13:08:03 856

原创 一个可以识别一切物体的模型

比如说,在描述一张家庭聚会的照片时,标签系统里不仅有常见的 “人”“桌子”“食物”,还会包含像 “聚会”“欢笑” 这类能描述场景和氛围的标签。这样,就可以在不需要大量人工标注的情况下,获得丰富多样的无标注图像标签。这样一来,经过数据引擎处理的数据更加准确、干净,大大提高了训练数据的质量,让模型在训练过程中能够学习到更可靠的图像 - 标签关系,从而提升标注性能。例如,在一些新兴的、数据稀缺的领域,或者遇到罕见的图像类别时,RAM 的零样本学习能力就能发挥巨大作用,让图像标注不再受限于数据不足的问题。

2025-05-05 13:04:21 946

原创 清华团队新模型YOLOE:一句话圈出图中万物,实时开放检测分割零门槛!

它通过一个可重参数化的轻量级辅助网络来优化预训练的文本嵌入,并增强-视觉文本对齐,且在推理和迁移时无额外开销。在 LVIS 数据集上,以少了 3 倍的训练成本和 1.4 倍的推理加速,YOLOE-v8-S 比 YOLO-Worldv2-S 提高了 3.5 AP。提出了一个、统一的开放物体探测与分割模型YOLOE,能够高效在单一模型中处理多种开放提示机制(文本、视觉、无提示),实现实时的「万物看见」能力。只需将识别出的物品的点与词汇表进行匹配,避免了对所有物品的点进行计算,提高了效率。

2025-05-05 13:01:52 1003

原创 2025年必爆火的发文方向:因果机器学习!!

以及跨领域应用等方面。设计了显式因果干预(Explicit Causal Intervention, ECI)模块,通过视觉的前门干预和语言的后门干预,有效消除虚假相关性,提升问答与视频时间定位之间的因果一致性。在评估中纳入了八类生成器,并在七个具有专家验证因果图结构的数据集上进行了广泛的实验,提供了任务无关、领域无关的评估维度,为表格生成模型的开发提供了实际指导。除了结构保真度外,还保留了传统的评估指标,并研究了它们与结构保真度之间的相互作用,为研究人员和从业者提供了一个标准化的评估框架。

2025-04-27 22:37:57 721

原创 使用MediaPipe检测眼睛、鼻子和嘴巴

代码定义了一个类,指定为,它采用Mediapipe开发的FaceMesh解决方案来检测面部标志。这种检测的重点是特定区域,即眼睛,虹膜,鼻子和嘴巴。从图像中提取所识别的界标,并以像素坐标的形式返回。_init__方法用于初始化检测器,这是通过配置Mediapipe的FaceMesh解决方案并存储眼睛、虹膜、鼻子和嘴巴的特定地标索引来实现的。try:pass下面表示上述图像的每个面部特征的结果。

2025-03-08 18:01:14 898

原创 杀疯了!K-means与DTW时间序列聚类 !!~

你好,我是小青~大家知道,由于时间序列数据的特殊性(如时间相关性、不同长度、不等间隔等),传统的欧几里得距离(Euclidean Distance)往往难以有效度量序列之间的相似性。因此,被引入作为相似性度量方法,并与结合,从而形成。

2025-02-28 10:17:32 2235

原创 突破最强聚类算法,GMM!!

哈喽,我是小青~今儿和大家聊一个非常重要的算法模型,GMM,即Gaussian Mixture Model。高斯混合模型(GMM)是一种基于概率的生成模型,常用于聚类、密度估计以及异常检测等任务。GMM 基本思想是:假设观测数据是由多个高斯分布(正态分布)的混合而成,每个高斯分布对应一个“子群体”或“簇”。GMM通过估计这些高斯分布的参数(均值、协方差)以及各个分量的混合系数来刻画数据的分布结构。GMM的优点在于其对数据分布的灵活建模能力,能够捕捉数据中各个子群体的不同形状和方向。

2025-02-28 10:14:45 1683

原创 不同神经网络之间的区别,仅仅只是网络结构的不同,明白了这个你才能知道应该怎么学习神经网络

我们首先需要的并不是去学习哪些复杂的神经网络模型,而是应该从最简单的模型结构开始;所以,从这个角度来看,一个可以使用的神经网络模型,从流程上来看几乎都是相同的;区别只是神经网络架构的异同,但具体的架构是由具体的任务类型所决定的;在文章的开始,就介绍说不同神经网络模型的主要区别就在于模型结构的不同;但是,我们从问题的最本质出发,不同的神经网络唯一的区别就是网络结构的不同;而由此这里也带来了一个问题,即为什么一个神经网络经过两个全链接层,以及在两个全链接层经过一次激活函数之后,就可以实现手写数字的分类?

2025-02-27 12:25:45 575

原创 大模型的智能从哪里来?

在强化学习过程接近收敛时,通过在 RL 检查点上进行拒绝采样,结合DeepSeek-V3 的监督数据(包括写作、事实问答、以及自我认知等领域),生成新的 SFT 数据并重新训练模型。将大型模型的推理模式蒸馏到小型模型中,使小型模型也能具备强大的推理能力,且性能优于直接在小模型上通过强化学习获得的推理模式。在大模型领域,算力和数据显得更加重要,所谓技术领先也是暂时的,在模型赋能的基础上AI可能会不断刷新人的认知,但数据驱动的智能也受限于数据,比如模型缺乏时效数据、缺乏局部领域数据等,往往就显得智力不足了。

2025-02-27 07:44:22 591

原创 基于 DeepSeek 从零构建 ReAct AI 智能体(文末含代码)

传统 AI 系统在处理简单任务时表现出色,它按照预定义逻辑处理输入、分析数据并产生响应。然而,在面对复杂、多步且需要持续调整和外部交互的问题时,传统方法就显得力不从心。例如,回答 “2024 年国际足联金球奖得主出生城市的天气如何” 这类问题,涉及到确定得主、找到其出生地以及查询该地天气等多个步骤,传统 AI 系统难以应对。ReAct AI 智能体则通过引入 “思考→行动→观察” 的循环模式,有效解决了上述问题。

2025-02-25 11:42:21 985

原创 机器学习——需求预测+PCA+随机森林算法+shap可解释性分析+多模型性能对比

自行车共享租赁过程与环境和季节设置高度相关。例如,天气状况、降水、星期几、季节、一天中的小时等都会影响租赁行为。数据集特征instant:记录索引dteday:日期season:季节(1:春季,2:夏季,3:秋季,4:冬季)yr:年份(0:2011 年,1:2012 年)mnth:月份(1 到 12)hr:小时(0 到 23)holiday:是否为假日(从 DC 政府假日安排 提取)weekday:星期几workingday:如果一天既不是周末也不是假日,则为 1,否则为 0weathersit。

2025-02-25 11:36:36 1174

原创 多模态融合原来这么有趣?看完我简直醍醐灌顶!

之所以要对模态进行融合,是因为不同模态的表现方式不一样,看待事物的角度也会不一样,所以存在一些交叉(所以存在信息冗余),互补(所以比单特征更优秀)的现象,甚至模态间可能还存在多种不同的信息交互,如果能合理的处理多模态信息,就能得到丰富特征信息。具体如下图,粉色的conv都是共享的,而不同模态的BN是私有的。Modal Attention是用法是,预测基于concat后的多模态联合特征对不同模态的重要性分布概率,再将分布概率与多模态融合特征做点积,得到对于不同模态特征重要性重新加权过后的新的多模态融合特征。

2025-02-23 20:24:51 1408

原创 突破XGBoost,结合KNN分类杀疯了!!

该方法不仅能够发挥XGBoost在全局特征建模上的优势,也能利用KNN在局部信息捕捉上的能力,进而通过元学习器整合信息、提高预测准确率。调参和优化过程中,通过交叉验证、网格搜索等方法可以进一步提升模型的鲁棒性和泛化能力。

2025-02-23 17:42:56 1584

原创 一个超强算法模型,Random Forest !!

随机森林(Random Forest)是一种集成学习算法,用于解决分类和回归问题。它基于决策树(Decision Trees)构建,并通过组合多个决策树来提高模型的性能和稳定性。随机森林的主要思想是通过随机选择样本和特征来构建多棵决策树,然后综合它们的预测结果来进行分类或回归。随机森林的工作原理:1、随机选择样本:从训练数据集中随机选择一定数量的样本(有放回抽样),这个过程称为"Bootstrap"抽样。这意味着每棵决策树的训练数据都是随机抽取的,可能包含重复的样本。2、随机选择特征。

2025-02-23 17:38:28 930

原创 分层抽样在调研设计中的应用

分层抽样是一种常用的抽样方法,它在调研设计中被广泛应用,尤其在面对异质性较大的总体时,通过将总体划分为若干具有相似特征的子群体(即“层”),然后在每个层内进行随机抽样,从而保证样本的代表性和研究结果的准确性。分层抽样的基本思路是:首先根据某些特定的标准(如性别、年龄、收入、地区等)将总体划分为若干个互不重叠的层(子群体),每个层内的个体在某些特征上具有高度的相似性。例如,当某些子群体的样本较为稀缺时,分层抽样可以增加这些层的样本量,从而确保足够的代表性,而不会浪费在已经充分代表的群体上。

2025-02-22 11:43:19 1784

原创 最强总结机器学习模型,梯度提升回归 !!

首先,梯度提升回归是一种迭代的集成学习方法,其目标是利用多个弱学习器(通常为决策树)逐步修正前一模型的不足,最终构成一个强预测模型。反之,若损失下降缓慢或震荡,可能存在欠拟合或模型不稳定的问题。它采用加法模型的思想,每一步都在已有模型上加上一个新的弱学习器,方向选取是沿着损失函数的负梯度方向前进,从而实现损失的最小化。:利用正弦函数构造非线性关系,并加入噪声,随后划分训练集与测试集,以便分别训练模型和评估模型泛化能力。对比测试集中真实值与预测值的散点分布,理想情况下,所有点应分布在对角线附近,即。

2025-02-22 10:00:55 727

原创 DeepSeek学术优化秘籍:如何让学术论文更惊艳?

这30个 DeepSeek 指令,涵盖了论文写作的各个环节,从选题到润色,再到查重,都能为你提供强大的支持。以下30个指令,针对论文写作的各个环节,让DeepSeek成为你最得力的学术助手!(例如:查找并总结近5年内,关于Transformer模型在自然语言处理中的应用的国内外重要文献,并给出文献来源。(例如:针对论文标题“基于深度学习的图像识别在医疗诊断中的应用”,提出3个需要重点探讨的核心问题。(例如:分析一篇关于BERT模型的论文,提取其核心观点、研究方法和创新之处,并指出其不足之处。

2025-02-20 08:50:43 574

原创 利用 DeepSeek-R1 蒸馏模型结合 LoRA 和COT数据集进行高效微调

DeepSeek-R1 的出现,为大语言模型领域带来了新的活力。其采用的大规模强化学习技术,是一大技术亮点。仅需少量标注数据,就能显著提升模型性能。通过构建智能训练场,动态生成题目和实时验证解题过程,模型的推理能力得到了有效锻炼。在世界大模型排名 arena 上,DeepSeek-R1 (Paper Review: DeepSeek-R1——强化学习驱动的大语言模型推理能力提升。

2025-02-20 08:47:31 1759

原创 LSTM 与随机森林的对比

LSTM 适用于长时间依赖的序列预测,适合非线性、时序特征复杂的问题。随机森林适用于短期时间序列预测,对于非时间依赖特征有较好的处理能力,计算效率高且易于解释。实际应用时可以结合两者,如先用随机森林提取特征,再输入 LSTM 进行预测,提升预测精度。

2025-02-19 18:39:05 1336

原创 精通特征选择:过滤器方法提升机器学习模型的技巧

案例:在垃圾邮件分类任务中,原始特征可能包含发件人、主题关键词、邮件正文等1000多个维度,通过选择前20个关键特征(如“免费领取”“限时折扣”等关键词),训练时间可从数小时缩短至几分钟。案例:信用卡欺诈检测模型中,“用户昵称”等特征与欺诈行为无关,删除后可提升对“交易金额异常”“跨国IP登录”等关键特征的识别灵敏度。:过滤方法可能选择与目标相关但彼此高度相关的特征(如“年龄”和“工龄”),导致冗余特征进入模型,增加计算成本且降低可解释性。定义:方差分析测试不同组(类别)的数值特征的均值是否有显著差异。

2025-02-19 08:17:58 1113

原创 机器学习各算法的优缺点!!

机器学习算法繁多,各个算法有各个算法的特点。以及不同算法在不同场景下,能够发挥各自的优点。今天呢,再一次把常见的、常用的算法模型进行了一个大概的总结。包括其分支以及各分支的优缺点。涉及到的算法有:回归正则化算法集成算法决策树算法支持向量机降维算法聚类算法贝叶斯算法人工神经网络深度学习。

2025-02-19 07:51:14 1344

原创 刚刚,DeepSeek丢出最新成果!

它不仅在性能上超越了传统的 Full Attention 模型,更在效率方面实现了显著的提升,尤其是在长序列场景下。最后不得不在强调一下,梁文锋不仅是deepseek ceo,很明显他还在研究的最前沿参与研究,这是令我最震撼的,他不仅有管理能力,而且还真正的懂AI,deepseek前途无量。一些理论上可训练的方法,在实际训练中效率低下,例如 Token 粒度的选择策略可能导致非连续的内存访问,影响硬件利用率。一些方法引入了不可微的离散操作,阻碍了梯度传播,限制了模型学习最佳稀疏模式的能力。

2025-02-19 07:45:56 574

原创 最强总结机器学习模型,UMAP !!

它通过建立高维空间中的最近邻图,并使用优化算法将高维数据投影到低维空间,同时尽量保留数据的局部拓扑结构。图中可以观察到,UMAP 有效地将高维空间的类群划分映射到二维空间,显示了良好的类间分离。降维结果显示,UMAP 成功地将瑞士卷从三维展开到二维,同时保持了样本的连续性。:UMAP 能够以低维形式展现高维分类数据的类别分布,为聚类和分类任务提供支持。UMAP 是一个高效、灵活的降维工具,可广泛应用于图像、文本和基因组数据分析中。:UMAP 在复杂流形结构数据的降维中展示了优异性能,保持了样本邻近关系。

2025-02-18 14:44:02 937

The dataset consists of 70,000 high-quality PNG images at 1024&times

The dataset consists of 70,000 high-quality PNG images at 1024&times

2025-06-21

计算机视觉案例-模拟障碍物拖动识别

计算机视觉案例-模拟障碍物拖动识别

2024-10-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除