- 博客(2)
- 收藏
- 关注
原创 【论文解读】用于卷积神经网络的注意力机制(Attention)----CBAM: Convolutional Block Attention Module
论文:CBAM: Convolutional Block Attention Module收录于:ECCV 2018摘要论文提出了Convolutional Block Attention Module(CBAM),这是一种为卷积神将网络设计的,简单有效的注意力模块(Attention Module)。对于卷积神经网络生成的feature map,CBAM从通道和空间两个维度计算featur...
2018-10-20 22:00:31 11441 11
翻译 使用TensorRT加速GPU上的TensorFlow推理(翻译)
本文翻译于博客Speed up TensorFlow Inference on GPUs with TensorRT,这篇博客介绍了如何使用TensorRT加速TensorFlow模型的推理速度,作者为:Siddharth Sharma — Technical Product Marketing Manager, NVidiaSami Kama — Deep Learning Develop...
2018-10-19 22:44:09 2851 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人