自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

学姐带你玩AI的博客

专注AI专业干货,AI前沿资讯,职业发展指导。

  • 博客(900)
  • 收藏
  • 关注

原创 2026年持续学习最流行的热门创新思路总结

今年正处于持续学习研究热潮的初期,有了DeepMind等机构的实力认证,再加上它确实是大模型刚需,这方向现已成了绝对热点,ICLR/AAAI等顶会也出现了明显的偏好。现在入局,正是好时候。这方向目前的热点赛道主要集中在LLM/VLM+自蒸馏、双阶段、无回放等方面,都比较容易出成果,想冲顶会的朋友可以考虑,找点参考文章就能开搞了,同时也建议避开纯回放、传统图像,这已经做烂了。

2026-04-16 17:24:28 338

原创 AAAI认证! Transformer+多模态融合2026仍是王炸,持续狂揽顶会

最近回顾了多模态相关的研究,这领域实在太火了,如果还想快速上手、快速出成果,那我推荐做Transformer+多模态融合,这是目前对新手最友好的热点方向之一。至于具体方向和创新点?根据发展趋势和最近的成果来看,个人认为高效多模态Transformer、统一表征与原生融合、特定模态组合、鲁棒性与可靠性、垂直领域应用等都是不错的细分方向,各位可以在了解前沿后,再按需选择。比如想冲顶会,就可以参考AAAI 2026的TouchFormer,这属于顶会非常喜欢的鲁棒型融合路线。

2026-04-14 17:07:06 204

原创 ICLR 2026!爆火!多模态时序预测新突破!性能直接拉满

时序预测的重要性大家懂的都懂,不过传统模型只擅长处理一维的数字序列,对于交通、气象、金融等领域来说,还是多模态时序预测更受欢迎。这种热度也体现在最近的顶会上,比如华东师大的首个通用多模态时序预测模型Aurora,在零样本少样本场景下吊打传统模型,性能直接拉满,一经提出就爆火,后续收录于ICLR 2026。这篇算是当前多模态时序预测最具代表性的前沿工作之一了,属于模型架构与能力增强这个主流创新赛道。对于也想冲顶会的朋友来说,非常值得借鉴。

2026-04-13 17:16:16 208

原创 妥妥新思路!强化学习+组合优化再发CCF A!速来抄作业

今天分享一个交叉领域非常热门且前沿的方向:强化学习+组合优化。这个组合简单来说,就是用RL的决策大脑来解决COP的最优选择难题,在物流、交通、制造等核心领域尤其受欢迎,现已成为顶会常客。目前想在这个领域做出创新,可以考虑从算法融合、架构改进、训练技巧、数据增强这些角度切入。比如AAAI 2026收录的PlanB&B,就是典型的架构改进+训练技巧驱动的创新。当然,光有个方向肯定是不行的,建议多关注顶会最新论文和工业界挑战,从中找到自己感兴趣也有优势的切入点。

2026-04-10 17:00:59 156

原创 冲上SCI一区TOP!注意力机制+多尺度卷积再迎大突破!精度与效率双UP

最近关注到河工大的一篇TGRS 2026文章,提出了一种专为地基云图分割设计的高效网络架构MPCM-Net,核心创新在于多尺度卷积+注意力机制,用Mamba做高效解码,实现了分割精度与推理效率的双重提升。说到多尺度卷积+注意力机制,一个成熟的、可稳定产出中高质量论文的方向,想要在这领域冲顶会顶刊,就必须平衡具体的落地问题与精巧的结构创新。而MPCM-Net,就是个绝佳案例,强推感兴趣的朋友研读。除此之外,这方向近期还有挺多工作值得学习,比如CVPR上的轻量化视觉模型的新思路MSGDC。

2026-04-09 17:48:53 228

原创 频域+卷积神经网络:好发又实用的论文黄金组合!轻松冲CVPR

今天分享一个投入产出比很高的方向:频域+CNN。它既保留了CNN强大的局部特征提取能力,又利用频域信息增强了抗噪性与全局感知能力。对于想要快速出成果的朋友来说,频域+CNN也是目前性价比最高的方向之一,实验成功率高,性能涨点猛,如果手头有信号类数据,小修小改即可产出。当然,如果想冲顶会顶刊也不难,可以尝试结合自适应频域选择、可学习滤波器、频域注意力等。从CVPR等顶会录用情况来看,这方向的热度不出所料正持续走高,如果感兴趣,现在正是窗口期。

2026-04-08 18:17:03 154

原创 已登CVPR&Nature子刊,小波变换+深度学习杀疯了 !!

融合小波变换的深度学习模型是当前的研究热点之一,这个交叉领域热度高、前景好、创新空间大,只要选对结合点和方法,冲顶会顶刊问题不大。比如+Transformer、+GNN、+KAN、+CNN、+mamba等,就是目前比较前沿而且热度很高的结合方式,而且它们也已经成为了提升性能、解决特定问题的核心手段之一,相关工作频繁出现在CVPR、nature等顶会顶刊上。如果你也对此感兴趣,现在正是入场的好时机。

2026-04-07 18:21:10 222

原创 再度封神!连发N篇顶会,可解释GNN迎来新突破!

感觉可解释GNN最近在顶会顶刊上越来越火了,MIDL26、WSDM26、AAAI26、npj Digital Medicine、IEEE TMI...上均有不少工作发表,这学术界香饽饽的地位难以撼动。不过因为这领域的理论框架已经很成熟了,想入门还是建议从主流方法切入,比如基于注意力、基于特征/梯度、基于/扰动等。打好基础后,因果解释、逻辑自解释这些前沿方向都值得考虑。

2026-04-01 17:30:00 215

原创 发文核心风口:多模态深度学习!既然逃不掉,那就好好吃透它!

当前学术界,多模态深度学习的热度依然是最高的,也是最值得投入的方向之一。这其中,多模态大模型、跨模态生成、低资源多模态学习、多模态因果推理、应用 成为了这方向的主流创新热点。如果你想冲顶会,我的建议是在这五个方向中选择一个具体的技术瓶颈切入,比如长视频理解、幻觉抑制、推理效率等。不过除了这些,具身智能、统一模型架构这俩最近也狠狠上分了,感兴趣的可以关注。

2026-03-31 21:00:51 175

原创 物理信息机器学习新突破!连中SCI一区TOP刊!

学术届的超级大热门——物理信息机器学习又爆新成果!作者提出了一种新的模型架构DYNAMI-CAL GraphNet,在需要对复杂多体动力系统进行准确、可解释且实时建模的领域中优势明显。除此以外还有中南大学团队开发的物理信息机器学习框架,在复杂成分空间的B2 MPEIs设计中实现效率与准确性SOTA!目前这俩都被一区TOP刊收录了,强推想在此领域发表成果的朋友关注!同时为了给大家提供更多的发文思路和方向,我整理了14篇物理信息机器学习前沿论文,开源代码已附,想冲顶会顶刊的同学可无偿获取!

2026-03-30 17:58:43 229

原创 入选AAAI 2026!多模态融合+小样本学习新突破!

今年高性价比发文方向:多模态融合+小样本学习。这俩组合起来随便一搭就是一个新框架,创新点非常丰富,现在还处于排列组合+深度优化的红利期,只想水论文基本没问题。如果要冲顶会,就需要场景加持,看能不能把方法套在一个热门且数据敏感的应用场景上。举俩AAAI-26的例子:CIF解决工业缺陷检测中少量样本结构共性难捕捉、误报率高的问题;Libra-MIL解决医疗病理诊断中文本偏差与单向对齐导致跨模态协作弱的问题。值得一提的是,这方向实验周期也比较短,会议期刊接受率都不低,如果你实在找不着方向,这是个很稳妥的选择。

2026-03-27 17:10:57 280

原创 2026年LSTM发高分,秘籍在于结合卡尔曼滤波

如果你想快速产出一篇不错的论文,我推荐你选择LSTM+卡尔曼滤波这个方向。这是个新旧结合的经典范式,天然具备创新故事,而且它的结构清晰,灵活性超强,非常适合搞即插即用式创新。从应用角度说,这方向几乎可以套用在所有存在时序数据和动态系统的领域,也算是个刚需了。不过,如果想冲顶会顶刊,就不能只搞简单的替换和组合,要么升级成通用的方法论框架,要么就考虑可微分滤波理论深化/SSM融合(偏理论)or极端场景/安全控制(偏应用)。

2026-03-26 17:16:53 335

原创 Nature/AAAI都在发!PINN+CNN这个方向,凭啥成了发文香饽饽?

近年关于PINN的研究多数偏向与多种网络结构结合,比如在计算速度和求解精度上优势明显的PINN+CNN。这个方向的跨学科属性强,创新点也很直观,审稿人理解门槛低。再加上有工程应用打底,只要在某个应用场景上验证充分,照样能冲顶会顶刊。举俩例子方便理解:Commun. Phys.上有篇用AutoML自动设计PICNN,验证扎实,预测误差最高降低59.8倍;AAAI上的Spline-PINN,解决了离散化误差,方法本身有通用性。当然,值得参考的工作可不止这些,想快速入手也需要先看看文章找思路。

2026-03-25 17:23:41 177

原创 风向变了!小样本异常检测顶会新思路!这波新热点抢发期,不容错过~

前几年,小样本异常检测FSAD凭借简单的组合式创新成为了顶会香饽饽。但现在方向变了,基线趋于饱和,这种情况下想冲顶会顶刊,就得选对赛道。目前性价比最高的赛道就是多模态FSAD,利用预训练的大型视觉-语言模型。这块推荐看近期的两个典型案例:AAAI26复旦的CIF、IEEE T-CYB的VTFusion。如果考虑工业部署?那就推荐做测试时自适应/提示学习,这也有个案例:ICLR26的FoundAD。除此之外,基于扩散模型的异常合成、工业异常检测的去偏与公平性也都不错,都是蓝海。

2026-03-24 17:06:55 217

原创 SAM+CLIP融合新思路!狂发顶会CVPR、ICCV...

今天给CV或医学图像分析领域的朋友推荐个方向:SAM+CLIP。近两年它相当受欢迎,相关研究猛猛发,其中很多工作都被顶会顶刊接收了。比如国防科技大提出的新型变化检测网络AdaptVFMs-RSCD,性能领先,登上ISPRS(IF=12.2);顶会CVPR、ICCV上的就更多了,新框架ESC-Net、华南理工的CorrCLIP...这仨工作恰好代表了这方向在应用范式、模型架构、底层机制三个不同层面的创新趋势,也印证了SAM+CLIP已经从简单拼凑走向深度融合。

2026-03-23 18:05:12 252

原创 2026年顶会论文,加点时间序列

如果大家关注NeurIPS、ICML这些顶会,就会发现一个很明显的趋势:时间序列相关的工作正在爆发式增长,而且研究思路也在发生转变。从传统的预测、分类,到现在和大模型、扩散模型这些新技术融合;从单一领域的应用,到成为医疗、金融、工业互联网这些行业的基础设施...时序这方向算得上发文快车道,研究路径清晰、不愁选题,无论是想快速搞一篇还是深耕某个点,都有足够的空间发挥。

2026-03-20 17:58:41 211

原创 上岸CCF-A顶会!Transformer+强化学习简直夯爆了!

近两年,基于Transformer的强化学习(TRL)在学术界持续产出突破性成果,而在工业界,它则是解锁模型高级能力的关键。到了今年,TRL的几个最新研究都指明了其最核心、最主流的三条创新路径:架构增强、轨迹优化、应用探索。比如ICLR2026的离线RL新范式PRGS,让Transformer类方法的平均性能提升了15.8%!另外还有牛津大学等提出的Memo,同为架构类创新,都非常值得论文er参考!

2026-03-19 17:10:04 201

原创 Nature新风口:PINN+知识蒸馏!思路学好转头就发顶会,新组合就是好上分

今天给大家推荐一个顶会顶刊新赛道:PINN+知识蒸馏!这是个典型的交叉领域,完美契合实际痛点,再加上研究维度丰富,易出创新点,非常适合作为论文选题!目前这方向发文量不大,但关注度正在迅速提升,顶刊NC和顶会CIKM最近都有高质量成果发表:Ψ-NN框架让PINN性能大幅提升(训练迭代次数↓50%,误差↓95%)、PKD-STTN模型实现多要素预报精度SOTA。如果想快速找到思路,建议学习这些高质量工作,从算法层面、应用层面或理论层面切入,更容易找到创新点。

2026-03-18 18:02:23 206

原创 时空图神经网络发SCI一区TOP!最新高分热点来袭,不看后悔

过去几年里,时空图神经网络STGNN的论文数量呈现出爆发式增长。只要翻开最新的学术期刊,你会发现它们已经悄悄渗入各个领域,比如发表于ESWA的两篇:一篇利用精细的时空图网络来建模多传感器数据,预测复杂工况下的轴承温度,属能源;另一篇将STGNN应用于预测球体撞击多层显示屏的物理量演化,属材料。如果你读的更深入,就会发现这俩也展现了STGNN的创新趋势:不再只是交通预测的利器,而是开始解决那些需要同时理解空间结构、时间动态和复杂物理过程的特定工业难题。PS:这也是当前STGNN冲顶刊的一条核心路径。

2026-03-17 17:53:42 181

原创 2026年YOLO缺陷检测最新创新点!

缺陷检测用YOLO,好处在于它能处理很多小问题(小目标or复杂环境),让缺陷检测更高效,精度也更高。由于这方向最近研究热度空前,我就做了点研究,发现今年YOLO在缺陷检测上的玩法又多了不少。具体来说,就是与Transformer、多模态数据、小样本学习等前沿技术交叉融合,这也是冲高区的好选择。举个例子:IEEE TIM有篇带钢缺陷检测,提出了SFC-YOLOv8,就属于新架构融合与复杂环境鲁棒性相关创新。

2026-03-16 17:45:53 269

原创 结合创新!“全局注意力+局部注意力”发文直冲顶会,CVPR/AAAI轻松拿下

时至今日,顶会还在疯狂收割“全局注意力+局部注意力”相关的研究。当然不是我夸大,这方向光理论上就有很多坑没填,应用上又有刚需,就大模型长文档处理那块,因此不可否认它依然是学术界发文好方向。最近AAAI 2026的最佳论文就给开了个头,ReconVLA的核心就是用重建任务逼着模型聚焦局部+全局。另外还有一些成果,比如CVPR的S₆⁴-MSTD、SegMAN...都说明了顶会评审现在特别吃这套“精准注意力”的故事。

2026-03-12 17:53:01 232

原创 深度学习求解偏微分方程简直杀疯了!3大创新路径一次全分享,抓住这波抢发期狠狠上分

深度学习求解PDE是当前最炙手可热的研究方向之一,ICLR26甚至专为它设立了“AI与PDE”研讨会,可见学术界正在大规模、体系化地推进这个方向,现在上车正当时。目前,这方向相关的创新主要有3类,其中PINN是当前最火、最通用的框架,尤其在无网格、数据稀疏与逆问题场景表现突出。而另外两种:基于深度算子的方法,以及PINN与有限元法的结合则在参数化、高维PDE求解上效率更高。大家可结合自己的兴趣和特长来选择。

2026-03-11 17:54:47 229

原创 2026巨头疯抢赛道:多任务强化学习Multi-task RL

最近观察了AGI的发展,作为其重要技术路径之一的多任务强化学习MTRL热度暴涨,吸引了很多大佬和机构入场,仅2026年初,就有一批相关论文被顶会接收。细数是数不过来了,就说几个瞩目的:字节跳动的OneReward,一个奖励模型统一多任务图像生成,效果全面超越PS!Meta AI的文章更是首次揭示了多任务RL后训练中一个被忽视的现象:梯度不平衡。可以看出来,MTRL之所以这么火,很大原因在于它能提供多个层次、多种类型的切入点,满足很多人的需求。无论你是想做理论突破,还是搞应用创新,都有空间。

2026-03-10 17:55:26 225

原创 喜提CVPR+ICCV!因果推断+小波变换仍是高分主力!创新不难,选题亮眼

介绍一个很有潜力的新方向:因果推断+小波变换。它目前正处于多学科交叉的前沿风口,优势清晰,创新路径多,是个很适合发论文的学术热点。最近它在顶会上的关注度越来越高了,大有霸榜CV三大顶会的趋势,已发布的就有ICCV25上吉大的因果推理驱动的小波网络CWNet,还有CVPR25上北大提出的WF-VAE,都是值得一看的高分成果。现在几乎所有涉及时序或时空数据的学科都需要用到它,如果你还在找选题,这方向真的入坑不亏!创新的话强推“解决时间尺度错配导致的因果误判问题”,这是核心痛点。

2026-03-09 18:08:28 183

原创 一区&顶会N连发!多尺度注意力机制简直是论文高产收割机

说到即插即用的性能提升神器,那就不得不提多尺度注意力机制了,它在很多领域都取得了显著效果,尤其医学图像分割、目标检测、视频理解这类大热领域。到了2026年,多尺度注意力机制相关的工作已经不再是简单地提出一个模块了,而是专注于与新架构结合、解决具体难题,以及追求极致效率。这趋势可以从最近的一区/顶会成果上看出:ICCV的图像伪造定位SOTA框架M2SFormer、Automat Constr的全新自监督裂缝分割框架Crack-Segmenter。

2026-03-05 17:36:26 211

原创 2026开年新风向:自蒸馏Self-Distillation!麻省理工、斯坦福等团队争相入场

前段时间,MIT、ETH Zurich和UCLA等团队,几乎在同一时间提交了关于Self-Distillation的重磅论文。这预示着自蒸馏将成为2026年大模型领域的一个非常明确的技术新风向。通过合理的上下文引导或反馈机制,自蒸馏可以解决大模型“持续学习”的核心瓶颈,而这方向的相关创新也都围绕这个目标展开,尤其是解决灾难性遗忘和提升样本效率这两块。上述提到的重磅论文就是典型:MIT等机构的SDFT、斯坦福等团队的SDPO(详见下文)。建议对此方向感兴趣的朋友研读。

2026-03-04 17:54:57 201

原创 CVPR和Nature的共同选择,这种多模态信息融合思路真的需要好好学习一下!

多模态信息融合,整个多模态领域中最核心、最活跃的研究方向之一,热度相当高,顶刊和顶会都在持续关注。尤其Inform Fusion,约60%的相关文献都是这方向。在今年刚公布的CVPR 2026上,也有不少相关工作,比如CaReFlow 多模态融合框架,刷新多个多模态情感计算任务SOTA。Nature的大子刊Nat. Commun.也收录了多篇成果,强推所有该领域的朋友研读。本文整理了11篇多模态信息融合前沿论文,包含上述成果,方便大家找思路。

2026-03-03 17:20:33 218

原创 吊打Transformer!时间序列异常检测新突破!霸榜ICLR 2026

时间序列异常检测有新突破了!作者提出了首个异常检测补丁级表示学习框架PaAno,用轻量级模型干翻Transformer等架构,在时间序列异常检测上又快又准!该工作发表在刚公布不久的ICLR 2026上,值得一提的是ICLR这方向相关的文章相当多,除PaAno之外还有精度SOTA速度狂提40%的双分支LSTM模型、首个通用时序异常检测模型DADA...NIPS、KDD以及一些2区TOP刊上也陆续有成果发表,足见时间序列异常检测之热门!

2026-03-02 18:23:07 327

原创 频域+注意力机制大热!模范思路入选顶会,刷新多项SOTA纪录

近两年在CVPR、AAAI等顶会,以及IJCV等顶刊上,频域+注意力机制相关的论文持续涌现。比如刷新多项SOTA纪录的FSTA-SNN模型、让卷积也能“看全局”的频域注意力模块FMA。这得益于这个组合超强的“带货”能力,它在多个领域都展现出了显著优势,你可以在很多方向上找到切入点,比如CV图像分类、时序分析等,可谓应用广泛,遍地开花。至于创新,从模型架构、算子改进、应用创新到理论分析,一路都存在大量可以挖掘的点。如果没想法,你可以从前沿论文入手,根据自己的兴趣快速定位。

2026-02-28 18:01:00 350

原创 杀疯了!融合LSTM与Transformer用于时间序列预测 !!

LSTM+Transformer用于时间序列预测,一个非常热门且成果丰富的研究方向,绝对适合作为论文选题。但现在难点在于,简单的缝合:LSTM提取特征,然后输入Transformer,或者Transformer输出后接LSTM解码...这类思路已经快做烂了。要想发表高质量的论文,就需要更深入的创新。简单推荐几个思路,比如改进注意力机制这类结构性创新,最近IEEE TGRS上的CCD-TBLCA方法就是(见下文);再比如处理非平稳性这类问题驱动创新、参数高效微调这类模型效率创新...

2026-02-27 17:00:30 394

原创 强!小波+傅里叶 霸榜AAAI 2026!即插即用,涨点起飞!

众所周知,几乎所有AI处理的视觉和听觉数据本质上都是信号。而小波+傅里叶因为恰好能弥补当前深度学习处理这些数据的某些短板,且在这类结构化规则信号上几乎总能帮你提升性能。于是,它就成了个万金油方向。尤其最近,小波+傅里叶在很多顶会,比如AAAI 2026上就有不少成果,典型的有SPJFNet(见下文)。这俩工作属于“即插即用”式创新,故事清晰,实验扎实,容易打动审稿人,是非常推荐的创新策略。除此以外,领域特定应用也不错,主要是门槛低,容易在交叉学科期刊上发表。

2026-02-26 17:55:37 381

原创 强烈推荐!可解释多模态融合顶刊新成果!Nature大子刊已发

近期涌现的一批工作,清晰地展现了可解释多模态融合的研究热点:从单纯追求性能,转向了在保持高性能的同时,让模型的决策过程变得透明、可理解。比如一篇Nat. Commun.文章,通过模仿临床决策路径和量化临床净收益来实现决策透明。又比如中山六院的这篇,通过桥接网络对齐跨模态语义和揭示生物学相关特征来达成机理透明,共同解决了从“模型能用”到“临床敢用”的关键跃迁。本文选取了近期受到瞩目的18篇可解释多模态融合相关代表性工作,这些具有创新性的成果,是快速洞察发展脉络与最新动态的最佳捷径。

2026-02-25 18:22:22 333

原创 热点创新!基于Transformer与KAN网络的三种高阶玩法

现在KAN+Transformer这块,有点像2017年Transformer刚提出时的状态,大家都在尝试把新模块装进旧框架。最近的一些研究也证实了,这个领域确实还在快速发展。比如发表在IEEE TSG以及TEEE TGRS上的两篇(见下文),完美符合这方向当前的三个创新趋势:架构深挖、应用下沉、理论突破。当然,这其中最主流,也最容易出成果的还得是架构方面,大家可以想想,除了简单替换,KAN还能怎么融入Transformer?也许idea就来了。

2026-02-24 18:30:33 383

原创 强化学习与物理信息神经网络(PINN)重磅结合!硬核思路就是好上分

最近刷了不少PINN相关的论文,发现个明显的变化,越来越多的工作开始结合强化学习搞创新。以前我们都是关注如何更精确、更高效地求解一个特定的物理方程,得到问题的静态答案,也就是求解。现在因为AI4S强劲的发展势头,对模型动态、高维的序列决策能力要求更高,而这正是强化学习的专长。于是“PINN+强化学习”这方向开始热起来了,paper也肉眼可见地密集。今天我们就简单做个盘点,梳理一波这方向近期有代表性的研究,帮助大家掌握领域前沿动态和发展趋势,以便按方向继续深挖,目前更新到9篇,需要自取。

2026-02-23 18:00:00 679

原创 注意力机制研究风向变了!从这些顶刊顶会看 attention 最新的研究趋势...

近来注意力机制顶刊顶会论文高度聚焦于三大方向:一是注意力机制的效率优化,这是最活跃的方向,核心是解决标准Transformer中自注意力计算的二次复杂度带来的计算和内存瓶颈,让其能处理更长序列或部署在资源受限的设备上;二是注意力机制的认知与能力边界探索,旨在理解和突破注意力模型的能力极限,探索其在认知和学习方面的可能性;三是注意力基础架构的创新与挑战,这方向不再对现有Transformer搞些小修小补,而是尝试设计全新的基础架构,或者从固有缺陷入手。

2026-02-22 18:00:00 722

原创 刷完了Mamba+多模态图像融合的新工作,这几个开源项目最值得复现!

现在外面哀鸿遍野的“Mamba不好发了”,其实指的是把ViT/ResNet的Backbone换成Mamba做分类那种,那个赛道2025年底就卷死了。但我们今天说的“Mamba+多模态图像融合”是2026年少数的还在持续出高区的红利期赛道。原因就一句话:融合天然需要处理两个模态的交互,而交互恰恰是SSM扫描机制最擅长的。那现在上车做什么最好?根据最近出的高区工作来看,我认为搞特定垂直场景下的缺陷处理比较好,比如遥感小目标+动态扫描策略,收益高风险低。

2026-02-21 18:00:00 632

原创 第三代神经网络SNN获重大突破!多项成果入选CVPR、TPAMI、Nature顶尖子刊...

第三代神经网络——脉冲神经网络SNN最近实在热闹,顶会顶刊扎堆,值得说道的就有TCSVT 2025上的SNN新标杆Spike-BRGNet,事件语义分割能效超ANN 17.76倍!还有北大刚发的混合忆阻器阵列、TPAMI/CVPR/AAAI上的一堆研究...我就不一一说了。总之,简单查了近年的论文,SNN确实已经成为了热门关键词。而且根据这些成果来看,大厂明显也在深度布局,可以说前景广阔,大有可为。

2026-02-20 15:43:00 319

原创 Transformer结合卡尔曼滤波是真的好发!起步就是二区

现在的学术评价体系,单纯刷榜、堆参数早就不行了,可解释、可信赖、能落地才是新的金标准。Transformer+卡尔曼滤波这个组合就非常符合。这组合天然优势互补,很容易提出新的架构和方法。加上应用场景广泛(对状态估计有高要求的都可),需求迫切,还是个相对比较新的交叉方向。因此从学术角度说,很适合发文,而且冲个二区不会太难。本文系统梳理了Transformer+卡尔曼滤波近期发布的12篇前沿论文,包含CVPR等顶会顶刊成果,方便各位做参考。

2026-02-16 17:15:00 677

原创 再登《Nature》正刊!小样本机器学习新思路发力起飞!

过去几年,我们发现小样本机器学习研究的重心在悄悄变化,从算法驱动到预训练驱动,再到大模型驱动。这点从今年的很多工作上都能看出来,比如登上Nature正刊的TabPFN,它不是在小样本学习的旧范式上修修补补,而是直接引入了大模型成功的关键思想(ICL+预训练),并将其应用到了表格数据领域。可以说,如今的小样本机器学习早就不纠结在小数据上设计算法了,而是探索如何在大模型上高效适配。为帮助大家更好地理解并上手这个思路,本文精选了12篇代表性工作,包含上述Nature正刊,以及NeurIPS等顶会成果。

2026-02-15 17:23:03 361

原创 多模态可解释性又“杀疯了”!剑桥新作成风向标,2026发文就选这个赛道

如果你是刚入门多模态,那我觉得可以从可解释的多模态融合这块切入,这个方向问题边界清晰,评价指标相对明确,更容易做出可量化的贡献。而且融合解释模块现在已经成为多模态模型的标准组件了,可以说2026年开始这个方向就从加分项变成了必选项,要做的抓紧。也可以先看看剑桥团队的那篇AAAI成果,InterSHAP,非常典型的风向标式工作。为了方便追前沿,我自己收集了很多这方向的高质量论文,目前更新到15篇,如果你也想找baseline参考,可以直接领取这份文档,我简单做了点创新解析,希望可以帮你快速找到思路。

2026-02-14 16:15:56 337

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除