在 AI 变革千行百业的时代,一场关于效率、可部署性与算力可持续性的技术革命正悄然发生。作为承上启下的关键中间件,AI 编译器串联起了底层硬件与上层应用。无论是已在业界广泛应用的 TVM,还是近年来快速崛起的 Triton,亦或是今年年初才崭露头角的算子编程语言 TileLang,编译技术已不仅仅是让模型「跑得起来」的基本保障,同时也正在升级为支撑「高效执行与资源利用优化」的关键技术。
围绕 AI 编译器上下游的创新与实践持续涌现,大家对该领域的关注度也在 up up up! 为了更好地连接前沿研究与应用场景,7 月 5 日,HyperAI 超神经将在北京举办第 7 期 Meet AI Compiler 技术沙龙。我们有幸邀请到了来自 AMD 、北京大学、沐曦集成电路等多位资深专家,与各位分享其面向 AI 编译器的最佳实践及趋势研判。此外,上海创智学院助理教授、 Apache TVM PMC 冯思远将担任圆桌环节的主持人,和众多讲师一起围绕「跨硬件的统一编译生态」这一主题展开深入的讨论。
活动详情
时间:7 月 5 日(周六)13:30-17:45
地点:北京市海淀区中关村创业大街 6 号楼 2 层车库咖啡
人数:200(现场座位有限,请尽早报名)
报名:https://hdxu.cn/1cmhk
嘉宾及议程
技术分享
13:40-16:35
分享主题:助力开源社区,剖析 AMD Triton 编译器
内容简介:Triton 是 OpenAI 提出的一种专为简化高性能 GPU Kernel 开发而设计的编程语言,在主流的 LLM 推理训练框架中得到了广泛应用。用户可以通过开发 Python Triton 代码来实现 GPU Kernel,无需关心底层的 GPU 架构细节,大大降低了 GPU 代码的开发难度。
AMD 在相关的 GPU 平台上实现了 Triton 编译器,并且贡献给了 Triton 开源社区。为了优化 GPU 代码性能,需要了解 Triton 编译器及其在 Kernel 性能优化中的作用。本次分享将详细探讨 AMD Triton 编译器,介绍 编译器如何提升 Triton 在 AMD GPU 平台上的性能。
观看本场分享,你将了解:
1. AMD GPU 架构的介绍。
2. AMD GPU 在 Triton 开源社区上的最新工作。
分享主题:TileLang:算子开发不再「烧脑」,性能依然在线
内容简介:本次分享我们带来新的算子编程语言——TileLang 。它通过显式的 tile 级原语与自动推理机制,赋能开发者高效实现硬件感知的神经算子,兼顾控制力与开发效率。与传统编译器(如 Triton)相比,TileLang 在主流 GPU 上可实现高达 6 倍的性能提升,显著简化开发流程,让性能优化不再是「专家专属」。
观看本场分享,你将了解:
1. 掌握一种更简单、更高效的高性能算子开发语言。
2. 了解 TileLang 的核心设计理念与技术优势。
分享主题:沐曦 GPU 上的 TVM 应用实践
内容简介:这次讨论主要围绕如何在沐曦 GPU 上应用 TVM 。针对沐曦 GPU,围绕 TVM 进行高性能算子生成,使能基于 TVM 的主流 AI 框架。
观看本场分享,你将了解:
1. 国产 GPGPU 上适配 TVM 可能会碰到的问题。
2. TVM 在国产 GPGPU 上的收益如何,以及哪些方面需要继续突破。
3. 关于 TVM 等 AI 编译器在国产 GPGPU 上的支持现状,并讨论如何拓展相关生态圈。
更多嘉宾敬请期待~
圆桌讨论
圆桌主题:跨硬件的统一编译生态