NLP
思宏
背影
展开
-
Transformer解码加速
参考文章 Fast Transformer Decoding: One Write-Head is AllYou Need问题分析1、transformer训练很快,因为decoder只需要一次,但推断却很慢,因为前一个推断要作为下一个推断的输入2、作为认为慢的原因是重复载入key和value导致的内存带宽消耗这里是引用While training these layers is g...原创 2019-12-27 01:52:44 · 1770 阅读 · 0 评论 -
Transformer详解
Transformer详解参考The Illustrated Transformer未完待续原创 2019-12-08 23:45:43 · 4980 阅读 · 0 评论 -
基于转移的语义依存图分析
基于转移的语义依存图分析 PS:用过论文成果到垂直领域,效果还不错! 论文作者:王宇轩,车万翔,郭江,刘挺 引言 本文介绍的工作来源于我实验室录用于AAAI2018的论文《A Neural Transition-Based Approach...转载 2018-10-18 16:29:21 · 3160 阅读 · 0 评论 -
15年来,自然语言处理神经网络相关技术发展史上的8大里程碑
原标题:15年来,自然语言处理发展史上的8大里程碑 自然语言是人类独有的智慧结晶。自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向,旨在研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。用自然语言与计算机进行通信,有着十分重要的实际应用意义,也有着革命性的理论意义。 由...转载 2018-10-21 11:14:43 · 1835 阅读 · 0 评论