【TVM全文翻译】TVM: An Automated End-to-End Optimizing Compiler for Deep Learning

7 篇文章 18 订阅 ¥29.90 ¥99.00

目录

Abstract

1. Introduction

2. Overview

3. Optimizing Computational Graphs

4. Generating Tensor Operations

4.1 Tensor Expression and Schedule Space

4.2 Nested Parallelism with Cooperation

4.3 Tensorization

4.4 Explicit Memory Latency Hiding

5. Automating Optimization

5.1 Schedule Space Specification

5.2 ML-Based Cost Model

5.3 Schedule Exploration

5.4 Distributed Device Pool and RPC

6. Evaluation

6.1 Server-Class GPU Evaluation

6.2 Embedded CPU Evaluation

6.3 Embedded GPU Evaluation

6.4 FPGA Accelerator Evaluation

7. Related Work

8. Conclusion


Abstract

       越来越多的应用需要将机器学习应用到各种各样的硬件设备上。当前框架依赖于特定供应商的运算符库(vendor-specific library),并针对小范围的服务器级GPU进行优化。将工作负载(workloads) 部署到新平台,例如手机,嵌入式设备和加速器(如FPGA,ASIC),需要大量的手动工作。

       我们发布了TVM,这是一种可提供计算图级优化(graph-level optimization) 和运算符级优化(operator-level optimization) 的编译器,可以为不同硬件后端的深度学习工作负载提供性能可移植性。TVM解决了深度学习面临的优化问题,例如高级运算符融合,映射到任意硬件原语,以及内存延迟隐藏。它还通过采用新颖的,基于学习的成本建模方法来快速搜索代码优化,从而自动优化低级程序来符合硬件特性。

       实验结果表明,TVM可以提供跨硬件后端的性能,这些后端与用于低功耗CPU,移动GPU和服务器级GPU的最先进的手动调整库相比具有竞争力。我们还展示了TVM针对新加速器后端的能力,例如基于FPGA的通用深度学习加速器。该系统是在几家大公司内部开源和生产使用的。


硬件

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值