- 博客(1)
- 收藏
- 关注
转载 NVIDIA BERT推理解决方案Faster Transformer开源了
Faster Transformer是一个基于CUDA和cuBLAS的Transformer Encoder前向计算实现,其优越的性能将助力于多种BERT的应用场景。 2017年12月Google在论文“Attention is All You Need”[1] 中首次提出了Transformer,将其作为一种通用高效的特征抽取器。至今,Transformer已经被多种NLP模型采用,比如BERT...
2019-07-18 11:10:05
700
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人