神经机器翻译(Neural Machine Translation,简称 NMT)存在于各种各样的消费者应用程序中,包括 web 站点、路标、在外语中生成字幕等。
NVIDIA 的可编程推理加速器 TensorRT™ 帮助优化和生成运行时引擎,用于将深度学习推理应用程序部署到生产环境中。同时,NVIDIA 的 TensorRT™ 工具可实现加速神经机器翻译(NMT)在 GPU 上的应用。谷歌的神经机器翻译(GNMT)模型在 Tesla V100 GPU 上使用 TensorRT 进行推理的速度比纯 CPU 平台可快 60 倍。
11 月 14 日(周三)晚 8 点,NVIDIA 开发者社区经理 Ken He 将在 PaperWeekly 直播间为您介绍如何利用 NVIDIA 最新发布的 TensorRT 5.0,加速神经机器翻译在 GPU 上的应用。
课程概要
早期的 TensorRT™ 版本引入了一些用于 RNN 的层,如 LSTM 和 GRU。NVIDIA 最新发布的 TensorRT 5.0 支持新的 RNN 层,如批量矩阵相乘、Constant、Gather、RaggedSoftMax、Reduce、RNNv2 和 TopK。这些层允许应用程序开发人员使用 TensorRT™ 轻松加速 NMT 模型中最密集的部分。
本次线上课程,我们将首先回顾神经机器翻译应用程序的体系结构,然后通过一个示例展示如何在 GPU 上执行此类应用程序的推理。课程具体内容包括:
神经机器翻译应用概述
TensorRT™ 在 NMT 模型中的应用
TensorRT-NMT 样例展示
此外,您还可以加入本次活动答疑群,与拥有丰富一线开发经验的 NVIDIA 开发者社区经理进行实时交流。
嘉宾介绍
何琨
NVIDIA开发者社区经理
何琨 , NVIDIA 开发者社区经理,7 年 GPU 开发经验,5 年人工智能开发经验。
如何报名
1 点击阅读原文填写报名表,报名成功请截图保存
2 扫描下方二维码添加小助手,备注 NVIDIA 获取直播地址及入群通道
NVIDIA × PaperWeekly
NVIDIA TensorRT™
在神经机器翻译中的应用
NVIDIA开发者社区经理何琨
内容分享√在线Q&A√
活动形式:PPT直播 + 交流群Q&A
活动时间
11 月 14 日(周三)20:00-21:30
点击阅读原文,立刻报名
*扫描下方二维码获取直播地址
往期直播
*查看更多往期实录,请点击PaperWeekly公众号底部精品栏目菜单。
?
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 免费报名