- 博客(2147)
- 收藏
- 关注
转载 CVPR 2026|研究提出延迟反馈扰动学习框架,提升视觉-语言-动作模型在测试时的决策鲁棒性与成功率
该方法包含两个核心设计。首先,团队引入不确定性驱动的动作投票机制,通过对模型输出分布进行不确定性估计,动态分配数据增强次数,并对多视角观测下的候选动作进行投票决策,使模型在高不确定性情形下更充分探索,从而减少对单一轨迹模式的依赖,缓解由虚假相关带来的错误决策问题。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-05-14 17:00:54
4
转载 LLM 推理机制被发现了?研究发现:所有大模型都会“坍缩”到低维空间
对于 LLM 同样如此。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。这像极了高手解题:真正厉害的人,不是尝试更多可能,而是一开始就知道哪些方向是错的,迅速排除干扰,进入正确的逻辑子空间。大模型的推理,并不是高维空间中的自由搜索,而是一种在高表达能力基础上,自发形成的低维、信息非退化的受约束动力学过程。
2026-05-13 12:03:14
10
转载 ICLR 2026 | 推理效率提升超60倍:DiDi-Instruct让扩散语言模型16步超越千步GPT
一旦积分KL散度被优化至收敛(接近0值),少步生成的“学生”模型便在概率意义上吸收了 "教师dLLM" 的知识。DiDi-Instruct 提出了一种独创的概率分布匹配的后训练策略,可以将原本需要500步以上昂贵的扩散语言“教师”(diffusion Large Language Model, dLLM)模型,蒸馏成一个仅需8-16步生成整个文本段落的“学生”模型。DiDi-Instruct 的提出,不仅是离散扩散模型加速技术的一次技术突破,也为广泛的大语言模型的极限加速,对齐和强化学习提供了新的思路。
2026-05-12 17:01:25
15
转载 AAAI26杰出论文||高频信息为何关键:理论分析与基于Sheaflet的超图神经网络设计
在多个基准数据集上的大量实验结果表明,与现有方法相比,我们的方法取得了显著更优的性能,从而进一步验证了高频信息在超图学习中的重要性。具体而言,sheaf结构使模型能够有效保留高阶关系中的方向性与函数依赖,而framelet则为多频段信号的分解与处理提供了一种有理论支撑的工具,尤其是在模型设计中重点强调了高通信号的作用,这一点与我们的理论分析结果高度一致。:构建了一个理论框架,揭示低通与高通分量在超图学习中的互补性,并从理论上严格证明了同时利用二者的模型具备更强的表示能力。的增大,模型的泛化界将进一步收紧。
2026-05-11 17:02:02
11
转载 ICLR 2026 | 旅行攻略背后的智能体难题:ChinaTravel 检验 LLM Agent 在开放世界中的可靠性
该论文把多种神经-符号变体(基于整数规划的 TTG、基于验证器反馈的 LLM-modulo,以及作者新提出的 NeSy Planning)放到统一实验框架下系统比较,借此把当下语言智能体在多日开放规划上的真实瓶颈清晰地刻画出来。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-05-09 17:01:50
26
原创 ICLR 2026|Information Gain-based Policy Optimization:用信息增益训练多轮搜索智能体
最终,IGPO 使用与 GRPO 类似的 clipped surrogate objective 更新策略,但不再把同一个 rollout-level advantage 分配给整条输出,而是把每一轮的 discounted return 分配给该轮产生的 decision tokens。在 Qwen2.5-3B-Instruct 上,outcome-only 的平均 F1 为 32.3,IG-only 为 34.6,而 F1 + IG 达到 48.9。在本文的任务设定中,数据集由问题和标准答案组成。
2026-05-08 17:01:36
502
转载 ICLR 2026|从数字智能体到AI科学家
在真实的科学探索过程中,软件往往拥有非标准 I/O 流、复杂的界面逻辑,需要先配置再执行,并通过多步操作才能完成最终科研目标,这对智能体提出了前所未有的挑战。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。而在科学研究这一关乎人类知识进步的关键场域,基于这些强大模型的智能体也开始悄然成为科研工作流的新型合作者。
2026-05-07 17:02:07
67
转载 ICLR 2026 Oral|当 LLM Agent 在多轮推理中迷失时:T3 如何让强化学习重新学会主动推理
相反,对于具有一定多轮推理基础的模型,T3 更能够发挥“保护前缀有效探索”的作用。和传统的单轮问答不同,这类任务最大的挑战在于:agent往往无法在一开始就获得完成任务所需的全部信息,而必须在与外部环境的连续交互中,逐步收集线索、更新判断,并推进任务完成。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-05-06 17:01:21
31
转载 ICLR 2026|变长视觉Token调度加速大模型3D影像理解
我们针对这一问题提出了一个3D原生的医学多模态大语言模型框架,它直接以3D Patch为基本单元来表征数据,并通过可变长度的视觉Token序列,在训练和推理阶段按照当前指令自适应地保留或丢弃Token,从而在保持三维信息质量的基础上减少冗余计算。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-05-04 17:02:31
22
转载 热点速递|Cursor事故——仅仅是AI失控吗?
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。
2026-04-30 17:01:03
16
转载 CVPR 2026 作者集结:线上预讲会报名开启
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。AI TIME 愿做这座桥梁,无需亲赴现场,您即可面向海内外同仁全景展示,在分享、交流与辩论中,让思想火花持续激荡。迄今为止,AI TIME已经邀请了1800多位海内外讲者,举办了逾600场活动,超700万人次观看。AI TIME欢迎每一位AI爱好者的加入!
2026-04-29 17:02:45
23
转载 ICLR 2026|医疗多模态大模型的“显微镜”:开启无需标注的视觉推理新范式
二者共同构成了一个不依赖外部标注的、自我完善的学习循环,为训练可靠、可解释的医疗AI提供了全新的范式。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。因此,我们提出了一种全新的技术方案,能够在无需任何中间步骤人工标注的前提下,使医疗多模态大模型自主学会进行主动的视觉探索与证据定位,从而实现更可靠、更透明的视觉推理。
2026-04-28 17:01:30
36
转载 ICLR 2026 Oral|AI for PDE 的“下半场”
在做仿真时,无法避免地要做一些理想化简化,比如忽略复杂未知的噪声、固定简化边界条件,或是把物理间的耦合关系简化处理,但在真实的工业生产、实际场景中,PDE 问题会更加复杂:多源噪声无处不在,边界条件可能随时突变,还常常伴随着多尺度多物理场耦合的情况。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-04-27 17:00:25
31
转载 ICLR 2026|DataMind:构建通用数据分析智能体
更重要的是,本文开源了全部数据和模型(DataMind-12K、DataMind-7B/14B),并分享了在数据过滤、训练策略、RL作用等方面的宝贵经验,旨在为社区在智能体训练这一前沿领域提供可操作、可复现的实践指南。:乔硕斐(浙江大学)、赵延秋(浙江大学)、邱志松(浙江大学)、王潇斌(阿里巴巴)、张锦添(浙江大学)、赵斌(浙江大学)、张宁豫(浙江大学)、蒋勇(阿里巴巴)、谢朋峻(阿里巴巴)、黄非(阿里巴巴)、陈华钧(浙江大学)然后,为每个查询采样多条轨迹,并使用GPT-4o-mini作为裁判,进行。
2026-04-26 12:01:29
38
转载 ICLR 2026|GGBall:在双曲空间中生成图与分子
相比之下,GGBall 在保持较高合法性的同时,仍然能生成足够新的分子,这对于药物发现和材料设计更有价值,因为我们真正关心的往往不是复现已知结构,而是找到训练集之外仍然合理的候选分子。相比之下,潜在空间通常默认就是欧氏的,很少被当作一个需要认真设计的部分。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-04-24 12:00:20
34
转载 CVPR 2026 Accepted?来预讲会做主角
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。AI TIME 愿做这座桥梁,无需亲赴现场,您即可面向海内外同仁全景展示,在分享、交流与辩论中,让思想火花持续激荡。迄今为止,AI TIME已经邀请了1800多位海内外讲者,举办了逾600场活动,超700万人次观看。AI TIME欢迎每一位AI爱好者的加入!
2026-04-23 17:30:44
47
转载 ICLR 2026|VFScale:利用内在能量函数驱动扩散模型高效搜索
一方面,我们利用一些指标来测试了生成样本的多样性,发现样本随着采样步数的深入diversity明显下降,基本针对一个给定问题,采样出来的是同一个解;为了填补扩散模型在推理侧扩展(Test-time Scaling)上的空白,VFScale 提出了一种无需外部验证器的测试时可扩展扩散模型框架,通过引入单调回归负对比学习(MRNCL)重塑能量地貌以确保能量与样本质量的一致性,并结合混合蒙特卡洛树搜索(hMCTS)策略,从而在无需外部反馈的情况下显著提升了模型在复杂分布外推理任务(如大型迷宫和数独)上的性能。
2026-04-23 12:00:00
54
转载 ICLR 2026 | 大模型的无监督强化学习能走多远?清华团队给出了系统性答案
研究者系统解剖了无监督 RLVR 的内在机制,发现所有基于模型自身信号的内在奖励方法,无论多数投票、熵奖励还是其他变体,都遵循着一条相似的轨迹:训练初期性能快速攀升,但到达某个临界点后,开始不可逆地滑落。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。当我们认清内在奖励的宿命,才真正看清外部奖励的星辰大海。
2026-04-22 12:01:42
14
转载 先机直推|2027届同学,你的AGI入场券已送达
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。AI TIME欢迎每一位AI爱好者的加入!备注AI TIME可以优先获得推荐权。备注AI TIME可以优先获得推荐权。提出观点,表达想法,欢迎。
2026-04-21 12:01:38
20
转载 开班倒计时|大模型工程师学习班
许老师将带领学员系统构建大模型工程能力,课程聚焦大语言模型核心技术,从AI发展简史切入,深入浅出地讲解LLM基本原理与核心架构,系统梳理主流大模型的技术演进与能力特点,解析模型规模与涌现能力的内在关系,帮助学员建立对大模型能力边界的准确认知,为后续AI应用落地打下坚实的技术基础。课堂上所讲授的,不仅是理论上可行的方案,更是我们在真实项目中反复验证、踩过坑、总结出的实战经验。在学习大模型的路上,RAG已有成熟架构,Agent已有标准范式,微调具备完善的工具链,部署则有经过验证的最佳实践。
2026-04-20 09:54:43
17
转载 ICLR 2026 | DiT推理太贵?无需微调生成器,RL驱动DiT实现3倍推理加速
通过在跳步、缓存复用和稀疏注意力三个层级上进行细粒度的动态决策,它在无需重新训练庞大生成模型的情况下,实现了显著的推理加速。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。该判别器用于区分原始模型的生成分布和加速后的生成分布,将判别器的反馈作为奖励信号的一部分,强制加速后的输出与原始模型的分布保持一致。
2026-04-19 16:45:05
52
转载 论文解读|Landscape of Thoughts: 可视化大模型的推理过程
我们对比了不同的语言模型,从小模型(Llama-3.2-1B-Instruct,Llama-3.2-3B-Instruct) ,大模型(Llama-3.1-8B-Instruct,Llama-3.1-70B-Instruct)到推理模型(QwQ-32B,DeepSeek-R1-Distilled-Llama-70B, DeepSeek-R1-Distilled-Qwen-1.5B)。通常来说,研究人员需要亲自上阵,逐一检查模型生成的文本,试图捕捉其“局部行为”,比如错误的LaTeX格式或不合理的推理步骤。
2026-04-14 14:27:57
73
转载 4月15日|马彦彪老师特邀报告
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“ICLR”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-04-13 15:04:20
27
转载 谁不想急头白脸来场福利拉满的「黑客松」?
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。福利拉满:Tokens、算力、API 资源全免费,0 成本冷启动,不用为资源秃头。没关系,报名写需求,我们帮你找到梦中情队。AI TIME欢迎每一位AI爱好者的加入!
2026-04-12 21:50:24
22
转载 ICLR 2026预讲会 北邮BUPT Reasoning Lab专场
尽管多模态大模型(MLLMs)在通用感知领域进展显著,但在复杂现实场景下的专家级视觉推理能力仍有待验证,尤其是在面对隐蔽的学术视觉伪造时,模型能否超越简单的像素识别,实现深度的学术取证。为此,论文提出了 THEMIS,一个专注于学术论文造假取证的评估基准。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
2026-04-10 15:22:56
65
转载 ICLR 2026预讲会|西湖大学吴泰霖老师团队专场
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“ICLR”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-04-09 16:22:53
25
转载 ICLR 2026预讲会|香港浸会大学HKBU TMLR 课题组专场
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“ICLR”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-04-08 15:38:32
25
转载 ICLR 2026预讲会|DAMO开发者矩阵专场
添加"AI TIME小助手",发送“ICLR”将拉您进“AI TIME 交流群”!扫码通过Bilibili直播间观看。Bilibili直播。
2026-04-07 22:48:26
15
转载 ICLR 2026预讲会81位讲者云集|9大方向+5个专场+4场特邀报告
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“ICLR”AI TIME欢迎每一位AI爱好者的加入!AI TIME欢迎每一位AI爱好者的加入!Bilibili直播。
2026-04-07 22:48:26
51
转载 ICLR 2026 | MixLinear 时频互补 双域融合,0.1K 参数极端低资源下的多元时间序列预测
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。低秩滤波:不学习全尺寸滤波器(参数量 O(L·T)),而是引入秩约束分解——用编码矩阵将频域特征压缩到低维潜空间(默认秩 r=2),再用解码矩阵重建,参数量仅 O(r·L + r·T),通常 r=2 即可覆盖主要频率成分;
2026-04-03 14:08:28
116
转载 论文解读|TIP:研究提出因果去混淆小波解耦提示网络,提升一体化图像恢复效果与泛化能力
近日,实验室研究团队围绕一体化图像恢复中长期存在的性能和泛化瓶颈,首次从因果建模角度系统分析了现有方法的内在缺陷,并提出一种因果去混淆小波解耦提示网络,为复杂真实环境下多退化图像恢复提供了新的思路。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。王炳楠*,秦滨*,李江梦*,徐帆江,孙富春,熊辉。
2026-04-02 14:07:35
25
转载 一作招募|ICLR 2026 清华大学专场:线上直播+线下海报
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。期待在 AI TIME和「“智汇清年” 清华大学 AI创新节」相遇。我们将会进一步与您沟通线上直播分享与线下海报展示。AI TIME欢迎每一位AI爱好者的加入!
2026-04-01 18:22:09
29
转载 热点速递|Claude Code 源码意外泄露之后,闭源 Agent 的护城河还稳吗?
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。
2026-03-31 21:34:25
18
转载 直播预告|GTC2026趋势解析:从大语言模型到世界模型,物理AI进入真实世界
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“0402”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-03-30 15:01:41
21
转载 直播预告|跨越使用壁垒:OpenClaw 架构解析与端侧原生智能体的探索
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“0401”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-03-27 15:48:27
20
转载 AI TIME热点速递|未来模型竞争,拼的还是参数量吗?
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。
2026-03-26 18:05:07
30
转载 AI TIME 论文解读|为什么要从“切片”走向相位?ICLR 2026 PhaseFormer 给出答案
最大均值差异(MMD)的计算结果显示,相较于切片,相位表征在各个基准数据集上均实现了显著的分布散度降幅,从ETTh1的85.4%到Traffic的94.7%,这种分布的极度聚焦为模型在非平稳环境下的泛化提供了坚实支撑。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。增加,PhaseFormer的预测误差持续下降。
2026-03-25 18:04:10
41
转载 AGI-Next: Token时代,谁在拓展智能的边界
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。添加"AI TIME小助手",发送“2627”AI TIME欢迎每一位AI爱好者的加入!点击预约AI TIME 视频号直播。进入Bilibili直播间观看,
2026-03-24 12:00:51
18
转载 线下活动|AI TIME × 合抱之木·芝加哥站:Build with TRAE × Z.ai Creative Lab,报名倒计时
作为清华大学计算机系青年学者创办的学术交流平台,AI TIME旨在发扬科学思辨精神,链接全球AI学者、行业专家与爱好者,加强思想碰撞,打造成为全球AI交流与知识分享的聚集地。通过整合企业需求、区域资源与青年能力结构,GaGro 支持企业开展全球人才招募与品牌出海国际化的同时,也支持青年在真实项目中完成从想法到落地的实践,在行动中积累经验与成果。跨界论坛、海外品牌大会等项目,足迹遍布纽约、波士顿、多伦多、上海、杭州等城市,逐步建立起覆盖全球的高校社群、青年组织与企业机构的协作体系。
2026-03-23 14:00:40
46
转载 Gemini 真的最懂你?先看这套评测:中科大×NUS 的真实场景准则
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。该论文指出,未来的 LLM 个性化研究不能仅停留在下游任务的结果对齐,而应深入到记忆治理的全生命周期中,开发更具鲁棒性的抗噪检索模型与兼顾情商的上下文利用策略。该工作提出了一个覆盖记忆管理全生命周期的系统性评测框架,为个性化大模型的研究提供了重要的方法论支撑。
2026-03-20 12:03:44
88
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅